JP5004923B2 - Vehicle driving support device - Google Patents

Vehicle driving support device Download PDF

Info

Publication number
JP5004923B2
JP5004923B2 JP2008278719A JP2008278719A JP5004923B2 JP 5004923 B2 JP5004923 B2 JP 5004923B2 JP 2008278719 A JP2008278719 A JP 2008278719A JP 2008278719 A JP2008278719 A JP 2008278719A JP 5004923 B2 JP5004923 B2 JP 5004923B2
Authority
JP
Japan
Prior art keywords
image
vehicle
imaging
pseudo
relative speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008278719A
Other languages
Japanese (ja)
Other versions
JP2010108182A (en
Inventor
正人 渡辺
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008278719A priority Critical patent/JP5004923B2/en
Publication of JP2010108182A publication Critical patent/JP2010108182A/en
Application granted granted Critical
Publication of JP5004923B2 publication Critical patent/JP5004923B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両に搭載された撮像手段により撮像された画像を表示して、車両の周辺に存在する対象物を運転者に認識させる車両の運転支援装置に関する。   The present invention relates to a vehicle driving support apparatus that displays an image captured by an imaging unit mounted on a vehicle and allows a driver to recognize an object existing around the vehicle.

従来より、車両に搭載された赤外線カメラより撮像された車両前方の画像を、ナビゲーションシステムの表示部等に表示することによって、夜間走行時に、運転者に対して車両周辺に存在する歩行者等を認識させるようにした車両の運転支援装置が知られている(例えば、特許文献1参照)。   Conventionally, by displaying an image in front of the vehicle captured by an infrared camera mounted on the vehicle on a display unit or the like of the navigation system, a pedestrian or the like existing around the vehicle is displayed to the driver when driving at night. 2. Description of the Related Art A driving support apparatus for a vehicle that is recognized is known (see, for example, Patent Document 1).

また、カメラの撮像素子は温度等により感度特性が変化するため、例えば、赤外線カメラにおいて、定期的に撮像素子の感度を再設定するキャリブレーションを行なうことが知られている(例えば、特許文献2参照)。キャリブレーションは、カメラのシャッターを閉じて撮像素子への入光が遮断された状態とし、この状態での撮像素子による撮像画像の輝度が一定となるように撮像素子の感度を設定して行われる。
特開2001−6096号公報 米国特許第6929410B2号公報
Further, since the sensitivity characteristics of the image sensor of the camera change depending on the temperature or the like, for example, it is known to perform calibration for periodically resetting the sensitivity of the image sensor in an infrared camera (for example, Patent Document 2). reference). Calibration is performed by closing the camera shutter and blocking light incident on the image sensor, and setting the sensitivity of the image sensor so that the brightness of the image captured by the image sensor in this state is constant. .
JP 2001-6096 A US Pat. No. 6,929,410B2

上述したように、運転者が表示部に表示される車両前方の画像を確認しながら車両を運転しているときに、赤外線カメラのキャリブレーションが実行されると、シャッターが閉じられて赤外線カメラによる撮像ができなくなる。そして、この場合には、それまで車両の走行に応じて変化していた表示部の画像が、突然更新されない状態(フリーズ状態)となるため、運転者に違和感を与えるおそれがある。   As described above, when calibration of the infrared camera is executed while the driver is driving the vehicle while checking the image ahead of the vehicle displayed on the display unit, the shutter is closed and the infrared camera is used. Imaging cannot be performed. In this case, the image on the display unit that has been changed according to the running of the vehicle is not suddenly updated (freeze state), which may cause the driver to feel uncomfortable.

なお、このように、赤外線カメラによる撮像が不能となる状況は、キャリブレーションが実行されたとき以外にも、例えば、赤外線カメラへの同期信号の抜けが発生した場合にも生じる。   As described above, the situation in which imaging by the infrared camera becomes impossible occurs not only when the calibration is executed, but also when, for example, the synchronization signal is lost to the infrared camera.

そこで、本発明は、撮像手段による撮像が不能となったときに、表示画像のフリーズにより運転者に違和感を与えることを緩和した車両の運転支援装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle driving support device that alleviates a driver from feeling uncomfortable due to a freeze of a display image when imaging by an imaging means becomes impossible.

本発明は、車両に搭載された撮像手段により撮像された車両周辺の画像を、該車両に搭載された表示手段に表示する車両の運転支援装置の改良に関し、
前記撮像手段により撮像された画像のデータを保持する画像メモリと、
前記撮像手段により撮像された画像から、前記車両の前方を走行する車両を対象物として、該対象物の画像部分を抽出する対象物画像抽出手段と、
前記対象物画像抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、
前記撮像手段による撮像が不能となったときに、前記画像メモリに保持された過去の画像のデータと、前記相対速度算出手段により算出された相対速度とに基づいて、前記撮像手段による撮像が不能な期間における前記対象物の画像部分の変化を推定して表した擬似画像を生成し、該擬似画像を前記表示手段に表示する擬似画像表示手段とを備える。
The present invention related images around a vehicle taken by the imaging means mounted on a vehicle, the improvement of the driving support apparatus for a vehicle to be displayed on the display means mounted on the vehicle,
An image memory for holding data of an image captured by the imaging means;
Object image extraction means for extracting an image portion of the object from the image picked up by the image pickup means, with the vehicle traveling in front of the vehicle as the object;
A relative speed calculating means for calculating a relative speed between an object in real space corresponding to the image portion extracted by the object image extracting means and the vehicle;
When imaging by the imaging unit is disabled, imaging by the imaging unit is disabled based on past image data held in the image memory and the relative speed calculated by the relative speed calculating unit. Pseudo image display means for generating a pseudo image representing an estimated change in the image portion of the object during a long period and displaying the pseudo image on the display means.

そして、本発明の第1の態様は、
前記車両の走行速度を検出する車速検出手段とを備え、
前記擬似画像表示手段は、前記画像メモリに保持された過去の画像のデータのうち、前記対象物の画像部分を前記相対速度算出手段により算出された相対速度に基づいて拡大又は縮小した第1の推定画像と、前記対象物の画像部分以外の背景画像の変化を前記車速検出手段により検出された前記車両の走行速度に基づいて拡大又は縮小した第2の推定画像とを合成して、前記擬似画像を生成することを特徴とする
And the 1st aspect of the present invention is:
Vehicle speed detecting means for detecting the traveling speed of the vehicle,
The pseudo image display means is a first image obtained by enlarging or reducing the image portion of the object based on the relative speed calculated by the relative speed calculation means among the past image data held in the image memory. The estimated image is synthesized with the second estimated image obtained by enlarging or reducing the change in the background image other than the image portion of the object based on the traveling speed of the vehicle detected by the vehicle speed detecting unit, Characterized by generating images

かかる本発明によれば、前記撮像手段による撮像が不能となったときに、前記擬似画像表示手段により、前記画像メモリに保持された過去の画像のデータと、前記相対速度算出手段により算出された相対速度とに基づいて、前記撮像手段による撮像が不能な期間における前記対象物の画像部分の変化を推定して表した擬似画像が生成される。そして、このように、前記車両と対象物との相対速度に基づいて、前記対象物の画像部分の変化を推定して表した前記擬似画像は、前記撮像手段による撮像が不能とならなかったときに、前記撮像手段により撮像される画像に近似するものとなる。そのため、前記撮像手段による撮像が不能となったときに、前記擬似画像表示手段により前記擬似画像を生成して前記表示手段に表示することによって、前記撮像手段による撮像が不能である間も、前記表示手段に表示される画像を変化させて運転者に視認させることができる。そのため、前記撮像手段による撮像が不能である間に、運転者に対して、表示画像がフリーズすることによる違和感を与えることを緩和することができる。   According to the present invention, when imaging by the imaging unit becomes impossible, the pseudo image display unit calculates the past image data held in the image memory and the relative speed calculation unit. Based on the relative speed, a pseudo image is generated by estimating and representing a change in the image portion of the object during a period in which imaging by the imaging unit is impossible. In this way, when the pseudo image representing the change in the image portion of the object based on the relative speed between the vehicle and the object is not captured by the imaging unit, Furthermore, it approximates the image picked up by the image pickup means. Therefore, when imaging by the imaging unit becomes impossible, the pseudo image display unit generates the pseudo image and displays the pseudo image on the display unit. The image displayed on the display means can be changed and visually recognized by the driver. For this reason, it is possible to alleviate the driver from feeling uncomfortable due to the freeze of the display image while imaging by the imaging unit is impossible.

さらに、本発明によれば、前記撮像手段により撮像される画像における前記対象物の画像部分の大きさは、前記対象物と前記車両との相対速度に応じて拡大又は縮小する。それに対して、前記対象物の画像部分以外の背景画像については、前記車両の走行速度に応じて拡大または縮小する。このように、前記対象物の画像部分とそれ以外の背景画像では、大きさの変化の仕方が相違する。 Further, according to the present invention, the size of the image portion of the object in the image captured by the imaging unit is enlarged or reduced according to the relative speed between the object and the vehicle. On the other hand, the background image other than the image portion of the object is enlarged or reduced according to the traveling speed of the vehicle. As described above, the method of changing the size differs between the image portion of the object and the other background images.

そこで、前記擬似画像表示手段は、前記対象物の画像部分については、前記対象物と前記車両との相対速度に基づいて拡大又は縮小した前記第1の推定画像を生成し、前記対象物の画像部分以外の背景画像については、前記車両の走行速度に基づいて拡大又は縮小した前記第2の推定画像を生成して、前記第1の推定画像と前記第2の推定画像とを合成して前記擬似画像を生成する。そして、これにより、前記擬似画像を、前記撮像手段による撮像が可能な場合に撮像される画像に近づけて、運転者に違和感を与えることを一層緩和することができる。   Therefore, the pseudo image display means generates the first estimated image enlarged or reduced based on the relative speed between the object and the vehicle for the image portion of the object, and the image of the object For the background image other than the portion, the second estimated image enlarged or reduced based on the traveling speed of the vehicle is generated, and the first estimated image and the second estimated image are combined to generate the second estimated image. Generate a pseudo image. Thereby, the pseudo image can be made closer to the image that is captured when the imaging unit can capture the image, which can further alleviate the driver from feeling uncomfortable.

また、前記車両の水平方向の変化と鉛直方向の変化とのうちの少なくともいずれか一方を、前記車両の挙動として検出する車両挙動検出手段を備え、前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第1の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする。   In addition, vehicle behavior detection means for detecting at least one of a change in the horizontal direction and a change in the vertical direction of the vehicle as the behavior of the vehicle is provided, and the pseudo image display means includes the first estimation. Changing the position of the first estimated image in the composite image of the image and the second estimated image based on the behavior of the vehicle detected by the vehicle behavior detecting means to generate the pseudo image It is characterized by.

かかる本発明によれば、前記車両挙動検出手段により検出される前記車両の挙動に応じて、前記第1の推定画像と前記第2の推定画像との合成画像における前記第1の推定画像の位置を、前記車両の挙動に応じて変更することによって、前記擬似画像を、前記撮像手段による撮像が可能な場合に撮像される実際の画像に近づけて、運転者に違和感を与えることを一層緩和することができる。   According to the present invention, the position of the first estimated image in the synthesized image of the first estimated image and the second estimated image according to the behavior of the vehicle detected by the vehicle behavior detecting means. Is changed according to the behavior of the vehicle, and the pseudo image is brought closer to the actual image captured when the imaging unit can capture the image, thereby further mitigating the driver from feeling uncomfortable. be able to.

また、前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第2の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする。   In addition, the pseudo image display unit is configured to detect the position of the second estimated image in the combined image of the first estimated image and the second estimated image by the vehicle behavior detecting unit. The pseudo image is generated based on the change.

かかる本発明によれば、前記車両挙動検出手段により検出される前記車両の挙動に応じて、前記第1の推定画像と前記第2の推定画像との合成画像における前記第2の推定画像の位置を、前記車両の挙動に応じて変更することによって、前記擬似画像を、前記撮像手段による撮像が可能な場合に撮像される実際の画像に近づけて、運転者に違和感を与えることを一層緩和することができる。   According to the present invention, the position of the second estimated image in the composite image of the first estimated image and the second estimated image according to the behavior of the vehicle detected by the vehicle behavior detecting means. Is changed according to the behavior of the vehicle, and the pseudo image is brought closer to the actual image captured when the imaging unit can capture the image, thereby further mitigating the driver from feeling uncomfortable. be able to.

また、本発明の第2の態様は、前記撮像手段に設けられたシャッターを閉じた状態として、前記撮像手段のキャリブレーションを行うキャリブレーション手段を備え、前記擬似画像表示手段は、前記撮像手段のキャリブレーションの実行により前記撮像手段による撮像が不能となったときに、前記擬似画像を生成して前記表示手段に表示することを特徴とする。 The second aspect of the present invention includes a calibration unit that calibrates the imaging unit with a shutter provided in the imaging unit being closed, and the pseudo image display unit includes: The pseudo image is generated and displayed on the display unit when imaging by the imaging unit becomes impossible due to execution of calibration.

かかる本発明によれば、前記キャリブレーション手段により前記撮像手段のキャリブレーションが実行されている間も、前記擬似画像表示手段により前記擬似画像が生成されて前記表示手段に表示される。そのため、前記撮像手段のキャリブレーションの実行中に、前記表示手段に表示される画像がフリーズした状態となって、運転者に違和感を与えることを緩和することができる。   According to the present invention, the pseudo image is generated by the pseudo image display unit and displayed on the display unit while the calibration unit is calibrating the calibration unit. Therefore, during the calibration of the image pickup means, the image displayed on the display means is in a frozen state, which can alleviate the driver from feeling uncomfortable.

本発明の実施の形態について、図1〜7を参照して説明する。図1は本発明の車両の運転支援装置の構成図であり、本発明の車両の運転支援装置は、画像処理ユニット1を用いて構成されている。画像処理ユニット1には、遠赤外線を検出可能な赤外線カメラ2R,2L(本発明の撮像手段に相当する)、車両のヨーレートを検出するヨーレートセンサ3(本発明の車両挙動検出手段に相当する)、車両の走行速度を検出する車速センサ4(本発明の車速検出手段に相当する)、運転者によるブレーキの操作量を検出するブレーキセンサ5、運転者によるステアリングホイールの操舵角を検出する操舵角センサ6(本発明の車両挙動検出手段に相当する)、車両のピッチ角度を検出するピッチ角センサ7(本発明の車両挙動検出手段に相当する)、音声により注意喚起を行うためのスピーカ8、及び、赤外線カメラ2R,2Lにより得られた画像を表示すると共に、接触の可能性が高い対象物を運転者に視認させる表示を行うための表示装置9(本発明の表示手段に相当する)が接続されている。   Embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of a vehicle driving support apparatus according to the present invention. The vehicle driving support apparatus according to the present invention is configured using an image processing unit 1. The image processing unit 1 includes an infrared camera 2R, 2L that can detect far infrared rays (corresponding to the imaging means of the present invention), and a yaw rate sensor 3 that detects the yaw rate of the vehicle (corresponding to the vehicle behavior detecting means of the present invention). A vehicle speed sensor 4 for detecting the traveling speed of the vehicle (corresponding to the vehicle speed detecting means of the present invention), a brake sensor 5 for detecting the amount of brake operation by the driver, and a steering angle for detecting the steering angle of the steering wheel by the driver. A sensor 6 (corresponding to the vehicle behavior detecting means of the present invention), a pitch angle sensor 7 (corresponding to the vehicle behavior detecting means of the present invention) for detecting the pitch angle of the vehicle, a speaker 8 for alerting by voice, And the display for displaying the image obtained by the infrared cameras 2R and 2L and making the driver visually recognize an object with high possibility of contact Location 9 (corresponding to the display unit of the present invention) is connected.

図2を参照して、赤外線カメラ2R,2Lは、車両10の前部に、車両10の車幅方向の中心部に対してほぼ対象な位置に配置され、2台の赤外線カメラ2R,2Lの光軸を互いに平行とし、各赤外線カメラ2R,2Lの路面からの高さを等しくして固定されている。なお、赤外線カメラ2R,2Lは、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。赤外線カメラ2Rには、撮像素子への入光を遮断するためのシャッター30Rが設けられており、同様に、赤外線カメラ2Lにはシャッター30Lが設けられている。また、表示装置7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。   Referring to FIG. 2, infrared cameras 2R and 2L are disposed at the front portion of vehicle 10 at a substantially target position with respect to the center portion of vehicle 10 in the vehicle width direction, and two infrared cameras 2R and 2L are arranged. The optical axes are parallel to each other, and the infrared cameras 2R and 2L are fixed at the same height from the road surface. The infrared cameras 2R and 2L have a characteristic that the output level increases (the luminance increases) as the temperature of the imaged object increases. The infrared camera 2R is provided with a shutter 30R for blocking light entering the image sensor, and similarly, the infrared camera 2L is provided with a shutter 30L. Further, the display device 7 is provided so that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 10.

また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2R,2Lから出力されるアナログの映像信号をデジタルデータに変換して画像メモリ28に取り込み、画像メモリ28に取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。   Referring to FIG. 1, an image processing unit 1 is an electronic unit composed of a microcomputer (not shown) and converts analog video signals output from infrared cameras 2R and 2L into digital data. The microcomputer has a function of performing various arithmetic processes by the microcomputer on the image ahead of the vehicle captured in the image memory 28.

そして、該マイクロコンピュータに、車両の運転支援用プログラムを実行させることによって、該マイクロコンピュータが、赤外線カメラ2Rにより撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段20、赤外線カメラ2Lにより撮像された画像から、対象物の画像部分と相関性を有する画像部分を抽出する対応画像抽出手段21、対象物抽出手段20により抽出された対象物の画像部分と対応画像抽出手段21により抽出された画像部分との視差を算出する視差算出手段22、視差算出手段22により算出された視差に基づいて対象物と車両10間の距離を算出する距離算出手段23、対象物と車両10間の相対速度を算出する相対速度算出手段24、赤外線カメラ2R,2Lによる撮像が不能となったときに擬似画像を生成して表示装置9に表示する擬似画像表示手段25、赤外線カメラ2R,2Lのキャリブレーションを行うキャリブレーション手段26、及び、車両10と対象物との接触可能性を判定する接触判定手段27として機能する。   Then, by causing the microcomputer to execute a vehicle driving support program, the microcomputer extracts an image portion of the object in real space from the image captured by the infrared camera 2R. 20. Corresponding image extracting means 21 for extracting an image portion having a correlation with the image portion of the object from the image captured by the infrared camera 2L, the image portion of the object and the corresponding image extracted by the object extracting means 20 Parallax calculating means 22 for calculating the parallax with the image portion extracted by the extracting means 21; distance calculating means 23 for calculating the distance between the object and the vehicle 10 based on the parallax calculated by the parallax calculating means 22; When the relative speed calculating means 24 for calculating the relative speed between the vehicle 10 and the infrared camera 2R, 2L is disabled. Pseudo image display means 25 for generating a similar image and displaying it on the display device 9, calibration means 26 for calibrating the infrared cameras 2R and 2L, and contact determination for determining the possibility of contact between the vehicle 10 and the object It functions as the means 27.

そして、このように画像処理ユニット1により構成される対象物抽出手段20、相対速度算出手段24、擬似画像表示手段25、及びキャリブレーション手段26と、画像メモリ28と、ヨーレートセンサ3と、車速センサ4と、操舵角センサ6と、ピッチ角センサ7とにより、本発明の車両の運転支援装置が構成されている。   Then, the object extraction means 20, the relative speed calculation means 24, the pseudo image display means 25, the calibration means 26, the image memory 28, the yaw rate sensor 3, the vehicle speed sensor, which are configured by the image processing unit 1 in this way. 4, the steering angle sensor 6, and the pitch angle sensor 7 constitute a vehicle driving support device of the present invention.

ここで、赤外線カメラ2R,2Lの撮像素子は温度等により感度特性が変化するため、定期的に撮像素子の感度を再設定するキャリブレーションを行うことで、より良好な画像を得ることができる。そして、キャリブレーション手段26は、赤外線カメラ2R,2Lのシャッター30R,30Lを閉じて撮像素子への入光が遮断された状態とし、この状態で撮像した画像の輝度が一定となるように撮像素子の感度を設定して、キャリブレーションを行う。   Here, since the sensitivity characteristics of the imaging devices of the infrared cameras 2R and 2L change depending on the temperature or the like, it is possible to obtain a better image by performing calibration that periodically resets the sensitivity of the imaging device. Then, the calibration unit 26 closes the shutters 30R and 30L of the infrared cameras 2R and 2L so that light incident on the image sensor is blocked, and the image sensor so that the brightness of the image captured in this state is constant. Set the sensitivity of and perform calibration.

また、キャリブレーションは、撮像素子の感度特性だけでなく、赤外線カメラ2R,2L(左右のステレオカメラ)のパン角誤差についても、例えば、赤外線カメラ2R,2Lからの距離が既知である対象物を基準とした補正等により、行うことができる。   In addition, the calibration is performed not only on the sensitivity characteristics of the image sensor but also on the pan angle error of the infrared cameras 2R and 2L (left and right stereo cameras), for example, by using an object whose distance from the infrared cameras 2R and 2L is known. This can be done by a standard correction or the like.

このように、キャリブレーションは赤外線カメラ2R,2Lのシャッターを閉じて行われるため、キャリブレーションの実行中は、赤外線カメラ2R,2Lにより車両10の前方を撮像することが不能となる。また、画像処理ユニット1と赤外線カメラ2R,2L間の映像同期信号の入出力が途切れたときにも、赤外線カメラ2R,2Lにより車両10の前方を撮像することが不能となる。   As described above, since the calibration is performed with the shutters of the infrared cameras 2R and 2L being closed, it is impossible to image the front of the vehicle 10 with the infrared cameras 2R and 2L during the calibration. In addition, when the input / output of the video synchronization signal between the image processing unit 1 and the infrared cameras 2R and 2L is interrupted, it becomes impossible to image the front of the vehicle 10 by the infrared cameras 2R and 2L.

そこで、画像処理ユニット1は、赤外線カメラ2R,2Lによる撮像が可能であるか否かを判断する。そして、画像処理ユニット1は、赤外線カメラ2R,2Lによる撮像が可能であるときは、図3に示したフローチャートに従って、赤外線カメラ2R,2Lにより撮像された画像に基づく車両10の周辺の監視処理を実行する。   Therefore, the image processing unit 1 determines whether or not imaging by the infrared cameras 2R and 2L is possible. When the image processing unit 1 is capable of imaging with the infrared cameras 2R and 2L, the image processing unit 1 performs monitoring processing around the vehicle 10 based on the images captured by the infrared cameras 2R and 2L according to the flowchart shown in FIG. Execute.

一方、赤外線カメラ2R,2Lによる撮像が不能であるときには、画像処理ユニットは、図4〜図5に示したフローチャートに従って、擬似画像を生成して表示装置9に表示する処理を実行する。   On the other hand, when imaging by the infrared cameras 2R and 2L is impossible, the image processing unit executes a process of generating a pseudo image and displaying it on the display device 9 according to the flowcharts shown in FIGS.

先ず、図3に示したフローチャートに従って、画像処理ユニット1による車両10の周辺の監視処理について説明する。   First, the monitoring process around the vehicle 10 by the image processing unit 1 will be described with reference to the flowchart shown in FIG.

画像処理ユニット1は、STEP1で、赤外線カメラ2R,2Lから出力される赤外線画像のアナログ信号を入力し、続くSTEP2で該アナログ信号をA/D変換によりデジタル化したグレースケール画像を画像メモリ28に保持する。   In STEP 1, the image processing unit 1 inputs analog signals of infrared images output from the infrared cameras 2R and 2L, and in STEP 2, a grayscale image obtained by digitizing the analog signals by A / D conversion is input to the image memory 28. Hold.

なお、STEP1〜STEP2では、赤外線カメラ2Rによるグレースケール画像(以下、右画像という。)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という。)とが取得される。そして、右画像と左画像では、同一の対象物の画像部分の水平位置にずれ(視差)が生じるため、この視差に基づいて実空間における車両10から該対象物までの距離を算出することができる。   In STEP1 to STEP2, a grayscale image (hereinafter referred to as a right image) obtained by the infrared camera 2R and a grayscale image (hereinafter referred to as a left image) obtained by the infrared camera 2L are acquired. Since the right image and the left image have a shift (parallax) in the horizontal position of the image portion of the same object, the distance from the vehicle 10 to the object in real space can be calculated based on this parallax. it can.

続くSTEP3で、画像処理ユニット1は、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。次のSTEP4〜STEP6は、対象物抽出手段20による処理である。   In subsequent STEP 3, the image processing unit 1 binarizes the right image as a reference image (pixels with luminance equal to or higher than a threshold value are set to “1 (white)”, and pixels smaller than the threshold value are set to “0 (black)”. To generate a binary image. The next STEP 4 to STEP 6 are processes by the object extraction means 20.

対象物抽出手段20は、STEP4で、2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。また、対象物抽出手段20は、STEP5で、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、STEP6で、ラベリングした画像部分を監視対象物の画像候補として抽出する。   In STEP 4, the object extraction means 20 converts the image portion of each white area included in the binary image into run length data (data of white pixel lines continuous in the x (horizontal) direction of the binary image). Further, the object extraction unit 20 labels a line having a portion overlapping in the y (vertical) direction of the binary image as one image part in STEP 5, and in STEP 6, the labeled image part is an image candidate of the monitoring object. Extract as

次のSTEP7で、画像処理ユニット1は、各画像候補の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、前掲した特開2001−6096号公報に詳説されているので、ここでは説明を省略する。そして、画像処理ユニット1は、続くSTEP8〜STEP9と、STEP20〜STEP22を平行して実行する。   In the next STEP 7, the image processing unit 1 calculates the gravity center G, area S, and circumscribing aspect ratio ASPECT of each image candidate. Note that a specific calculation method is described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2001-6096, and the description thereof is omitted here. Then, the image processing unit 1 executes the following STEP 8 to STEP 9 and STEP 20 to STEP 22 in parallel.

STEP8で、画像処理ユニット1は、所定のサンプリング周期毎に赤外線カメラ2R,2Lにより撮像された画像に基づく2値画像から抽出された画像部分について、同一性判定を行い、同一の対象物の画像であると判定された画像部分の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。また、STEP9で、画像処理ユニット1は、車速センサ4により検出される車速VCAR及びヨーレートセンサ3により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θrを算出する。   In STEP 8, the image processing unit 1 performs identity determination on image portions extracted from binary images based on images taken by the infrared cameras 2R and 2L at predetermined sampling periods, and images of the same object The time-series data of the position of the image portion determined to be (centroid position) is stored in the memory (time tracking). In STEP 9, the image processing unit 1 reads the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3, and calculates the turning angle θr of the vehicle 10 by time integration of the yaw rate YR. To do.

また、STEP20〜STEP21は対応画像抽出手段21による処理である。対応画像抽出手段21は、STEP20で、対象物抽出手段20により抽出された監視対象物の画像候補の中の一つを選択して、右画像のグレースケール画像から対応する探索画像a(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。続くSTEP21で、対応画像抽出手段20は、左画像のグレースケール画像から探索画像に対応する画像を探索する探索領域を設定し、探索画像との相間演算を実行して対応画像を抽出する。   Further, STEP 20 to STEP 21 are processes by the corresponding image extraction means 21. The corresponding image extracting unit 21 selects one of the candidate images of the monitoring target extracted by the target extracting unit 20 in STEP 20 and selects the corresponding search image a (selected from the grayscale image of the right image. Image of the entire region surrounded by the circumscribed rectangle of the candidate image). In subsequent STEP 21, the corresponding image extracting means 20 sets a search area for searching for an image corresponding to the search image from the grayscale image of the left image, and executes a correlation calculation with the search image to extract the corresponding image.

続くSTEP22は、視差算出手段22による処理である。視差算出手段22は、探索画像の重心位置と対応画像の重心位置との差を視差dxとして算出し、STEP10に進む。   The subsequent STEP 22 is processing by the parallax calculation means 22. The parallax calculation means 22 calculates the difference between the centroid position of the search image and the centroid position of the corresponding image as the parallax dx, and proceeds to STEP 10.

STEP10で、画像処理ユニット1は、探索画像及び対応画像に対応する実空間上の対象物と車両10との距離zを、以下の式(1)により算出する「距離算出処理」を実行する。   In STEP 10, the image processing unit 1 executes “distance calculation processing” in which the distance z between the object in the real space corresponding to the search image and the corresponding image and the vehicle 10 is calculated by the following equation (1).

但し、z:対象物と車両10との距離、f:赤外線カメラ2R,2Lの焦点距離、p:赤外線カメラ2R,2Lの画素ピッチ、D:赤外線カメラ2R,2Lの基線長、dx:視差。   Here, z: distance between the object and the vehicle 10, f: focal length of the infrared cameras 2R, 2L, p: pixel pitch of the infrared cameras 2R, 2L, D: baseline length of the infrared cameras 2R, 2L, dx: parallax.

続くSTEP11〜STEP15及びSTEP30は、接触判定手段27による処理である。STEP11で、接触判定手段27は、探索画像30aの座標(x,y)とSTEP10で算出された対象物と車両10との距離zを、実空間座標(X,Y,Z)に変換して、探索画像10aに対応する実空間上の対象物の位置の座標を算出する。なお、実空間座標(X,Y,Z)は、図2に示したように、赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方向に設定されている。また、画像座標は、画像の中心を原点とし、水平方向がx、垂直方向がyに設定されている。   Subsequent STEP 11 to STEP 15 and STEP 30 are processes by the contact determination means 27. In STEP 11, the contact determination means 27 converts the coordinates (x, y) of the search image 30a and the distance z between the object calculated in STEP 10 and the vehicle 10 into real space coordinates (X, Y, Z). Then, the coordinates of the position of the object in the real space corresponding to the search image 10a are calculated. As shown in FIG. 2, the real space coordinates (X, Y, Z) are set such that the midpoint position of the attachment positions of the infrared cameras 2R, 2L is the origin 0, X is the vehicle width direction of the vehicle 10, and Y Is set in the vertical direction, and Z is set in the front direction of the vehicle 10. The image coordinates are set such that the center of the image is the origin, the horizontal direction is x, and the vertical direction is y.

次のSTEP12で、接触判定手段27は、車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。また、STEP13で、接触判定手段27は、所定のモニタ期間内で撮像された複数の画像から得られた回頭角補正後の同一の対象物の実空間位置の時系列データから、対象物と車両10との相対的な移動ベクトルを算出する。   In the next STEP 12, the contact determination unit 27 performs a turning angle correction for correcting a positional deviation on the image due to the turning of the vehicle 10. Further, in STEP 13, the contact determination means 27 determines the object and the vehicle from the time series data of the real space position of the same object after turning angle correction obtained from a plurality of images captured within a predetermined monitoring period. A relative movement vector with respect to 10 is calculated.

なお、対象物の実空間座標(X,Y,Z)及び移動ベクトルの具体的な算出方法については、前掲した特開2001−6096号公報に詳説されているので、ここでは説明を省略する。   The specific calculation method of the real space coordinates (X, Y, Z) and the movement vector of the object is described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2001-6096, and will not be described here.

次に、STEP14で、接触判定手段27は、車両10と対象物との接触可能性を判断して、注意喚起を行う必要があるか否かを判定する「注意喚起判定処理」を実行する。そして、「注意喚起判定処理」により、注意喚起を行う必要があると判定されたときは、STEP30に分岐してブザー8による注意喚起音の出力と、表示装置9への注意喚起表示を行う。一方、「注意喚起判定処理」により注意喚起を行う必要がないと判定されたときにはSTEP1に戻り、画像処理ユニット1は注意喚起を行わない。   Next, in STEP 14, the contact determination unit 27 determines the possibility of contact between the vehicle 10 and the object, and executes “attention determination processing” for determining whether or not it is necessary to call attention. When it is determined by the “attention call determination process” that it is necessary to call attention, the process branches to STEP 30 to output a warning sound by the buzzer 8 and display a warning on the display device 9. On the other hand, when it is determined by the “attention calling determination process” that it is not necessary to call attention, the process returns to STEP 1 and the image processing unit 1 does not call attention.

画像処理ユニット1は、「注意喚起判定処理」において、対象物が余裕時間内に自車両10と接触する可能性、対象物が自車両周囲に設定した接近判定領域内に存在するか否か、対象物が接近判定領域外から接近判定領域内に進入して自車両10と接触する可能性、対象物が歩行者であるか否か、対象物が人工構造物であるか否か等を判定して、注意喚起を行う必要があるか否かを判定する。   In the “attention determination process”, the image processing unit 1 may check whether the target object is in contact with the host vehicle 10 within a margin time, whether the target object is within the approach determination area set around the host vehicle, Determining whether a target object may enter the proximity determination area from outside the proximity determination area and come into contact with the host vehicle 10, whether the target object is a pedestrian, whether the target object is an artificial structure, etc. Then, it is determined whether or not it is necessary to call attention.

なお、「注意喚起判定処理」の具体的な処理内容については、前掲した特開2001−6069に「警報判定処理」として詳説されているので、ここでは説明を省略する。また、注意喚起表示としては、例えば、表示装置9に表示されている車両10の前方の画像において、対象物の画像部分の輝度を高くして強調する表示を行う。   Note that the specific processing content of the “attention determination processing” is described in detail as “alarm determination processing” in the aforementioned Japanese Patent Laid-Open No. 2001-6069, and thus description thereof is omitted here. In addition, as the alert display, for example, in the image in front of the vehicle 10 displayed on the display device 9, a display that emphasizes the image portion of the object by increasing the brightness is performed.

次に、図4〜図5に示したフローチャートに従って、画像処理ユニット1による擬似画像を生成して表示装置9に表示する処理について説明する。   Next, processing for generating a pseudo image by the image processing unit 1 and displaying it on the display device 9 will be described according to the flowcharts shown in FIGS.

画像処理ユニット1は、STEP40で、画像メモリ28に保持された最新の画像データを読み出す。なお、画像メモリ28には、現在から過去にさかのぼる数10フレーム分の画像データを保持するようにしてもよく、赤外線カメラ2R,2Lにより撮像がなされた時に、最新の画像データを上書きして1フレーム分の画像データを保持するようにしてもよい。   The image processing unit 1 reads the latest image data held in the image memory 28 in STEP40. The image memory 28 may hold image data for several tens of frames going back from the present to the past, and when the image is taken by the infrared cameras 2R and 2L, the latest image data is overwritten and 1 is overwritten. You may make it hold | maintain the image data for a frame.

続くSTEP41で、画像処理ユニット1は、車速センサ4により検出された車両10の走行速度VCAR、ヨーレートセンサ3により検出された車両10のヨーレートYR、操舵角センサにより検出された車両10のステアリングホールの操作角度SA、ピッチ角センサ7により検出された車両10のピッチ角度PRを入力する。   In subsequent STEP 41, the image processing unit 1 detects the traveling speed VCAR of the vehicle 10 detected by the vehicle speed sensor 4, the yaw rate YR of the vehicle 10 detected by the yaw rate sensor 3, the steering hole of the vehicle 10 detected by the steering angle sensor. The operation angle SA and the pitch angle PR of the vehicle 10 detected by the pitch angle sensor 7 are input.

続くSTEP42で、画像処理ユニット1は、STEP40で読み出した画像データについて、上述した図3のSTEP11で算出された対象物の実空間位置(横位置X,高さY,距離Z)のデータを読み出し、STEP43でフレームカウンタFctを0とする。フレームカウンタFctは、表示する擬似画像のフレーム数を管理するためのものである。   In subsequent STEP 42, the image processing unit 1 reads out the data of the real space position (lateral position X, height Y, distance Z) of the object calculated in STEP 11 of FIG. 3 described above from the image data read in STEP 40. In step 43, the frame counter Fct is set to zero. The frame counter Fct is for managing the number of frames of the pseudo image to be displayed.

次のSTEP44で、画像処理ユニット1は対象物が車両10の前方を走行する車両(以下、前方車両という)であるか否かを判断する。画像処理ユニット1は、対象物の実空間位置(横位置X,高さY,距離Z)が、予め設定された判定基準範囲内にあるときに、対象物が前方車両であると判断する。そして、対象物が前方車両であるときはSTEP45〜STEP48の処理を実行し、対象物が前方車両でないときにはSTEP49に分岐する。   In the next STEP 44, the image processing unit 1 determines whether or not the object is a vehicle traveling in front of the vehicle 10 (hereinafter referred to as a forward vehicle). The image processing unit 1 determines that the target object is a forward vehicle when the real space position (lateral position X, height Y, distance Z) of the target object is within a preset determination reference range. When the object is a forward vehicle, the processing of STEP 45 to STEP 48 is executed, and when the object is not a forward vehicle, the process branches to STEP 49.

なお、前方車両であるか否かの他の判断基準として、例えば、歩行者検出における車両除外処理で、車両であると認識されたときに、対象物は前方車両であると判断するようにしてもよい。   As another criterion for determining whether or not the vehicle is a forward vehicle, for example, when the vehicle is recognized as a vehicle in the vehicle exclusion process in pedestrian detection, the object is determined to be a forward vehicle. Also good.

STEP45で、画像処理ユニット1はフレームカウンタFctをインクリメントし、STEP46で、前方車両と判断された対象物が複数ある場合に、車両10からの距離が最も近い対象物を抽出する。次のSTEP47は、相対速度算出手段24による処理であり、相対速度算出手段24は、車両10の走行速度と対象物の時間あたりの距離変化量から、車両10と対象物との相対速度を算出する。   In STEP 45, the image processing unit 1 increments the frame counter Fct, and in STEP 46, when there are a plurality of objects determined to be the preceding vehicle, the object having the closest distance from the vehicle 10 is extracted. The next STEP 47 is processing by the relative speed calculation means 24. The relative speed calculation means 24 calculates the relative speed between the vehicle 10 and the object from the travel speed of the vehicle 10 and the distance change amount of the object per time. To do.

続くSTEP48〜図5のSTEP52及びSTEP60は、擬似画像表示手段25による処理である。擬似画像表示手段25は、STEP48で対象物の画像部分に対する拡大縮小率αを、相対速度が正(車両10に対象物が接近する状態)であるときは拡大縮小率αを拡大設定(1<α)とし、相対速度が負(車両10から対象物が遠ざかる状態)であるときは拡大縮小率αを縮小設定(α<1)とする。   Subsequent STEP 48 to STEP 52 and STEP 60 in FIG. 5 are processes by the pseudo image display means 25. The pseudo image display means 25 sets the enlargement / reduction rate α for the image portion of the object in STEP 48, and the enlargement / reduction rate α when the relative speed is positive (a state where the object approaches the vehicle 10) (1 < α), and when the relative speed is negative (the object is moving away from the vehicle 10), the enlargement / reduction ratio α is set to reduction (α <1).

また、次のSTEP49で、擬似画像表示手段25は、通常、大半の運転者が運転する際に前方を見ている距離(前方注視距離)を一定距離Zcと規定し、この一定距離Zcと車両の走行速度から拡大縮小率βを決定する。車両10が前方に走行していれば、拡大縮小率βは拡大設定(1<β)となる。   In the next STEP 49, the pseudo image display means 25 normally defines a distance (front gaze distance) at which most drivers look forward when driving as a fixed distance Zc, and the fixed distance Zc and the vehicle The enlargement / reduction ratio β is determined from the traveling speed of the vehicle. If the vehicle 10 is traveling forward, the enlargement / reduction ratio β is an enlargement setting (1 <β).

続く図5のSTEP50で、擬似画像表示手段25は、図4のSTEP41で入力した車速VCAR,ヨーレートYR,操舵角SA,ピッチ角PAから、車両10の挙動による画像位置の補正が必要か否かを判断する。そして、画像位置の補正が必要なときはSTEP51に進み、画像位置の補正が必要でないときにはSTEP60に分岐する。   In the subsequent STEP 50 of FIG. 5, the pseudo image display means 25 determines whether or not the image position needs to be corrected based on the behavior of the vehicle 10 based on the vehicle speed VCAR, yaw rate YR, steering angle SA, and pitch angle PA input in STEP 41 of FIG. Judging. If correction of the image position is necessary, the process proceeds to STEP 51. If correction of the image position is not necessary, the process branches to STEP 60.

図6を参照して、擬似画像表示手段25は、STEP51で、画像メモリ28に保持された画像データIm_0の対象物の画像部分(OBJ1)を拡大縮小倍率αで拡大又は縮小した画像(本発明の第1の推定画像に相当する)と、対象物の画像部分(OBJ1)以外の背景画像を拡大縮小倍率βで拡大した画像(本発明の第2の推定画像に相当する)との合成画像Im_1を生成する。   Referring to FIG. 6, the pseudo image display means 25 is an image obtained by enlarging or reducing the image portion (OBJ1) of the object of the image data Im_0 held in the image memory 28 at the enlargement / reduction ratio α in STEP 51 (present invention). And an image (corresponding to the second estimated image of the present invention) obtained by enlarging the background image other than the image portion (OBJ1) of the object with the enlargement / reduction ratio β. Im_1 is generated.

また、擬似画像表示手段25は、ヨーレートYR及び操舵角SAから、車両10の左右方向への向きの変化が観測されたときは、該左右方向への向きの変化の大きさに応じて合成画像Im_1の表示装置9に表示する範囲Dm0を左右方向に移動させる補正を行う。例えば、図7を参照して、右方向への変化(右旋回)が観測されたときは、合成画像Im_1の表示装置9に表示する範囲Dm0を、右方向への変化の大きさに応じたΔhだけ移動させた範囲Dm1を、表示装置9に表示する擬似画像とする。   Further, when a change in the left-right direction of the vehicle 10 is observed from the yaw rate YR and the steering angle SA, the pseudo image display means 25 generates a composite image according to the magnitude of the change in the left-right direction. Correction for moving the range Dm0 displayed on the display device 9 of Im_1 in the left-right direction is performed. For example, referring to FIG. 7, when a change in the right direction (right turn) is observed, the range Dm0 displayed on the display device 9 of the composite image Im_1 is determined according to the magnitude of the change in the right direction. The range Dm1 moved by Δh is set as a pseudo image displayed on the display device 9.

また、擬似画像表示手段25は、ピッチ角PAから、車両10の上下方向への向きの変化が観測されたときは、該上下方向への向きの向きの変化の大きさに応じて、合成画像Im_1の表示装置9に表示する範囲Dm0を上下方向に移動させる補正を行う。例えば、図7を参照して、上方向への変化(登坂)が観測されたときは、合成画像Im_1の表示装置9に表示する範囲Dm0を、上方向への変化の大きさに応じたΔvだけ移動させた範囲Dm2を、表示装置9に表示する擬似画像とする。   In addition, when a change in the vertical direction of the vehicle 10 is observed from the pitch angle PA, the pseudo image display unit 25 determines the composite image according to the magnitude of the change in the vertical direction. Correction for moving the range Dm0 displayed on the display device 9 of Im_1 in the vertical direction is performed. For example, referring to FIG. 7, when an upward change (uphill) is observed, the range Dm0 displayed on the display device 9 of the composite image Im_1 is set to Δv corresponding to the magnitude of the upward change. A range Dm2 that has been moved by a distance is taken as a pseudo image to be displayed on the display device 9.

そして、擬似画像表示手段25は、このようにして生成した擬似画像のデータを画像メモリ28に保持すると共に、擬似画像を表示装置9に表示する。一方、車両挙動による補正が必要ないと判断されたときには、STEP60で、上述した拡大縮小倍率αとβを用いた合成画像Im_0が作成され、合成画像Im_0に対する位置の補正は行われずに、合成画像Im_0がそのまま擬似画像となる。   The pseudo image display means 25 holds the pseudo image data generated in this way in the image memory 28 and displays the pseudo image on the display device 9. On the other hand, when it is determined that the correction based on the vehicle behavior is not necessary, the composite image Im_0 using the above-described enlargement / reduction magnifications α and β is generated in STEP 60, and the position of the composite image Im_0 is not corrected, and the composite image Im_0 becomes a pseudo image as it is.

そして、擬似画像表示手段25は、続くSTEP52でフレームカウンタFctが予め設定されたフレーム数N以上となるまで、STEP50〜STEP51及びSTEP60の処理を繰り返し実行して、擬似画像を生成・更新する。   Then, the pseudo image display means 25 generates and updates a pseudo image by repeatedly executing the processing of STEP 50 to STEP 51 and STEP 60 until the frame counter Fct becomes equal to or larger than the preset number N of frames in subsequent STEP 52.

これにより、キャリブレーション手段26による赤外線カメラ2R,2Lのキャリブレーションが実行された場合のように、赤外線カメラ2R,2Lによる撮像が不能な状況下でも、表示装置9には時間の経過に応じて変化する擬似画像が表示される。そのため、表示装置9に表示される画像がフリーズ状態となって、運転者に違和感を与えることを緩和することができる。   As a result, even when the infrared camera 2R, 2L cannot be imaged, as in the case where the calibration of the infrared camera 2R, 2L is performed by the calibration unit 26, the display device 9 responds to the passage of time. A changing pseudo image is displayed. Therefore, the image displayed on the display device 9 is in a frozen state, which can alleviate the driver from feeling uncomfortable.

次に、STEP52でフレームカウンタFctがN以上となったときにSTEP53に進み、画像処理ユニット1は、映像同期信号が入力された状態に復帰しているか否かを判断する。そして、映像同期信号が入力された状態に復帰しているときは、赤外線カメラ2R,2Lによる撮像が可能であるため、画像処理ユニット1は図3のフローチャートによる監視処理を実行する。   Next, when the frame counter Fct is greater than or equal to N in STEP 52, the process proceeds to STEP 53, and the image processing unit 1 determines whether or not the state has returned to the state in which the video synchronization signal has been input. When the video synchronization signal is restored, the image processing unit 1 executes the monitoring process according to the flowchart of FIG. 3 because the infrared cameras 2R and 2L can capture images.

また、STEP53で、映像同期信号が復帰していなかったときには、赤外線カメラ2R,2Lの故障や、画像処理ユニット1の映像信号入力部の故障が生じていると考えられる。そのため、この場合はSTEP54に進み、画像処理ユニット1は表示装置9にエラー表示を行う。   In STEP 53, when the video synchronization signal has not been restored, it is considered that the infrared cameras 2R and 2L have failed or the video signal input unit of the image processing unit 1 has failed. Therefore, in this case, the process proceeds to STEP 54 and the image processing unit 1 displays an error on the display device 9.

なお、本実施の形態では、対象物の画像部分を拡大縮小倍率αで拡大又は縮小し、対象物の画像部分以外の背景画像を拡大率βで拡大して、擬似画像を生成したが、対象物の画像部分と背景画像を、同一の拡大縮小倍率で拡大又は縮小するようにしてもよい。   In the present embodiment, the pseudo image is generated by enlarging or reducing the image portion of the object with the enlargement / reduction ratio α and enlarging the background image other than the image portion of the object with the enlargement factor β. The image portion of the object and the background image may be enlarged or reduced at the same enlargement / reduction ratio.

また、本実施の形態では、ヨーレートセンサ、舵角センサ、及びピッチ角センサにより車両の挙動変化を検出し、車両の挙動に応じて擬似画像における対象物の位置及び背景画像の位置を補正する処理を行ったが、この処理を行わない場合にも本発明の効果を得ることができる。   In the present embodiment, a change in the behavior of the vehicle is detected by the yaw rate sensor, the steering angle sensor, and the pitch angle sensor, and the position of the object and the background image in the pseudo image are corrected according to the behavior of the vehicle. However, even when this process is not performed, the effects of the present invention can be obtained.

また、本実施の形態においては、本発明の撮像手段として赤外線カメラ2R,2Lを用いたが、可視画像を撮像する可視カメラを用いてもよい。   Further, in the present embodiment, the infrared cameras 2R and 2L are used as the imaging means of the present invention, but a visible camera that captures a visible image may be used.

また、2台の赤外線カメラ2R,2Lによるステレオカメラの構成ではなく、単眼カメラによる構成に対しても、本発明の適用が可能である。この場合には、自車両から対象物までの距離は、少なくとも2つの異なる時点で撮像した画像間における統一の対象物の画像部分の大きさの変化と、自車両の走行速度等に基づいて算出することができる。   In addition, the present invention can be applied not only to the configuration of a stereo camera using two infrared cameras 2R and 2L but also to a configuration using a monocular camera. In this case, the distance from the host vehicle to the object is calculated based on the change in the size of the image portion of the unified object between the images captured at at least two different times, the traveling speed of the host vehicle, and the like. can do.

また、本実施の形態においては、キャリブレーション手段26により、赤外線カメラ2R,2Lのシャッターを閉じてキャリブレーションを行うものを示したが、キャリブレーションを行わない場合でも、何らかの要因により撮像手段による撮像が不能となるおそれがあれば、本発明の効果を得ることができる。   Further, in the present embodiment, the calibration unit 26 performs the calibration by closing the shutters of the infrared cameras 2R and 2L. However, even when the calibration is not performed, the imaging by the imaging unit is performed for some reason. If there is a possibility that it becomes impossible, the effect of the present invention can be obtained.

本発明の車両の運転支援装置の構成図。The block diagram of the driving assistance device of the vehicle of this invention. 図1に示した車両の運転支援装置の車両への取り付け態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of the driving assistance device of the vehicle shown in FIG. 赤外線カメラによる撮像が可能である場合の画像処理ユニットにおける処理手順を示したフローチャート。The flowchart which showed the process sequence in the image processing unit in case the imaging by an infrared camera is possible. 赤外線カメラによる撮像が不能である場合の画像処理ユニットにおける処理手順を示したフローチャート。The flowchart which showed the process sequence in the image processing unit when imaging with an infrared camera is impossible. 赤外線カメラによる撮像が不能である場合の画像処理ユニットにおける処理手順を示したフローチャート。The flowchart which showed the process sequence in the image processing unit when imaging with an infrared camera is impossible. 画像メモリに保持された画像データに基いて、擬似画像を生成する処理の説明図。Explanatory drawing of the process which produces | generates a pseudo image based on the image data hold | maintained at the image memory. 車両の挙動に基づいて、擬似画像を生成する処理の説明図。Explanatory drawing of the process which produces | generates a pseudo image based on the behavior of a vehicle.

符号の説明Explanation of symbols

1…画像処理ユニット、2R,2L…赤外線カメラ、3…ヨーレートセンサ、4…車速センサ、5…ブレーキセンサ、6…操舵角センサ、7…ピッチ角センサ、8…スピーカ、9…表示装置、20…対象物抽出手段、21…対応画像抽出手段、22…視差算出手段、23…距離算出手段、24…相対速度算出手段、25…擬似画像表示手段、26…キャリブレーション手段、27…接触判定手段、28…画像メモリ   DESCRIPTION OF SYMBOLS 1 ... Image processing unit, 2R, 2L ... Infrared camera, 3 ... Yaw rate sensor, 4 ... Vehicle speed sensor, 5 ... Brake sensor, 6 ... Steering angle sensor, 7 ... Pitch angle sensor, 8 ... Speaker, 9 ... Display apparatus, 20 ... object extraction means, 21 ... corresponding image extraction means, 22 ... parallax calculation means, 23 ... distance calculation means, 24 ... relative speed calculation means, 25 ... pseudo image display means, 26 ... calibration means, 27 ... contact determination means 28 ... Image memory

Claims (4)

車両に搭載された撮像手段により撮像された車両周辺の画像を、該車両に搭載された表示手段に表示する車両の運転支援装置において、
前記撮像手段により撮像された画像のデータを保持する画像メモリと、
前記撮像手段により撮像された画像から、前記車両の前方を走行する車両を対象物として、該対象物の画像部分を抽出する対象物画像抽出手段と、
前記対象物画像抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、
前記撮像手段による撮像が不能となったときに、前記画像メモリに保持された過去の画像のデータと、前記相対速度算出手段により算出された相対速度とに基づいて、前記撮像手段による撮像が不能な期間における前記対象物の画像部分の変化を推定して表した擬似画像を生成し、該擬似画像を前記表示手段に表示する擬似画像表示手段と
前記車両の走行速度を検出する車速検出手段とを備え、
前記擬似画像表示手段は、前記画像メモリに保持された過去の画像のデータのうち、前記対象物の画像部分を前記相対速度算出手段により算出された相対速度に基づいて拡大又は縮小した第1の推定画像と、前記対象物の画像部分以外の背景画像の変化を前記車速検出手段により検出された前記車両の走行速度に基づいて拡大又は縮小した第2の推定画像とを合成して、前記擬似画像を生成することを特徴とする車両の運転支援装置。
In a driving support apparatus for a vehicle that displays an image around the vehicle imaged by an imaging unit mounted on the vehicle on a display unit mounted on the vehicle,
An image memory for holding data of an image captured by the imaging means;
Object image extraction means for extracting an image portion of the object from the image picked up by the image pickup means, with the vehicle traveling in front of the vehicle as the object ;
A relative speed calculating means for calculating a relative speed between an object in real space corresponding to the image portion extracted by the object image extracting means and the vehicle;
When imaging by the imaging unit is disabled, imaging by the imaging unit is disabled based on past image data held in the image memory and the relative speed calculated by the relative speed calculating unit. Pseudo image display means for generating a pseudo image representing an estimated change of the image portion of the object in a certain period, and displaying the pseudo image on the display means ;
Vehicle speed detecting means for detecting the traveling speed of the vehicle,
The pseudo image display means is a first image obtained by enlarging or reducing the image portion of the object based on the relative speed calculated by the relative speed calculation means among the past image data held in the image memory. The estimated image is synthesized with the second estimated image obtained by enlarging or reducing the change in the background image other than the image portion of the object based on the traveling speed of the vehicle detected by the vehicle speed detecting unit, A vehicle driving support device for generating an image .
請求項1記載の車両の運転支援装置において、
前記車両の水平方向の変化と鉛直方向の変化とのうちの少なくともいずれか一方を、前記車両の挙動として検出する車両挙動検出手段を備え、
前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第1の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする車両の運転支援装置。
The vehicle driving support device according to claim 1,
Vehicle behavior detection means for detecting at least one of a change in the horizontal direction and a change in the vertical direction of the vehicle as the behavior of the vehicle;
The pseudo image display means is configured to determine a position of the first estimated image in a composite image of the first estimated image and the second estimated image based on the behavior of the vehicle detected by the vehicle behavior detecting means. The vehicle driving support device is characterized in that the pseudo image is generated.
請求項2記載の車両の運転支援装置において
前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする車両の運転支援装置。
The vehicle driving support device according to claim 2 ,
Said pseudo image displaying means based on the position of the second estimated image in the composite image of the first estimated image and said second estimation image, the behavior of the vehicle detected by the vehicle behavior detection means The vehicle driving support device is characterized in that the pseudo image is generated.
車両に搭載された撮像手段により撮像された車両周辺の画像を、該車両に搭載された表示手段に表示する車両の運転支援装置において、
前記撮像手段により撮像された画像のデータを保持する画像メモリと、
前記撮像手段により撮像された画像から、前記車両の前方を走行する車両を対象物として、該対象物の画像部分を抽出する対象物画像抽出手段と、
前記対象物画像抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、
前記撮像手段による撮像が不能となったときに、前記画像メモリに保持された過去の画像のデータと、前記相対速度算出手段により算出された相対速度とに基づいて、前記撮像手段による撮像が不能な期間における前記対象物の画像部分の変化を推定して表した擬似画像を生成し、該擬似画像を前記表示手段に表示する擬似画像表示手段と、
前記撮像手段に設けられたシャッターを閉じた状態として、前記撮像手段のキャリブレーションを行うキャリブレーション手段とを備え、
前記擬似画像表示手段は、前記撮像手段のキャリブレーションの実行により前記撮像手段による撮像が不能となったときに、前記擬似画像を生成して前記表示手段に表示することを特徴とする車両の運転支援装置。
In a driving support apparatus for a vehicle that displays an image around the vehicle imaged by an imaging unit mounted on the vehicle on a display unit mounted on the vehicle,
An image memory for holding data of an image captured by the imaging means;
Object image extraction means for extracting an image portion of the object from the image picked up by the image pickup means, with the vehicle traveling in front of the vehicle as the object;
A relative speed calculating means for calculating a relative speed between an object in real space corresponding to the image portion extracted by the object image extracting means and the vehicle;
When imaging by the imaging unit is disabled, imaging by the imaging unit is disabled based on past image data held in the image memory and the relative speed calculated by the relative speed calculating unit. Pseudo image display means for generating a pseudo image representing an estimated change of the image portion of the object in a certain period, and displaying the pseudo image on the display means;
A calibration means for calibrating the imaging means, with the shutter provided in the imaging means being closed,
The pseudo image display means generates the pseudo image and displays the pseudo image on the display means when imaging by the imaging means becomes impossible due to the calibration of the imaging means. Support device.
JP2008278719A 2008-10-29 2008-10-29 Vehicle driving support device Expired - Fee Related JP5004923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008278719A JP5004923B2 (en) 2008-10-29 2008-10-29 Vehicle driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008278719A JP5004923B2 (en) 2008-10-29 2008-10-29 Vehicle driving support device

Publications (2)

Publication Number Publication Date
JP2010108182A JP2010108182A (en) 2010-05-13
JP5004923B2 true JP5004923B2 (en) 2012-08-22

Family

ID=42297583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008278719A Expired - Fee Related JP5004923B2 (en) 2008-10-29 2008-10-29 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP5004923B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101722258B1 (en) * 2010-07-30 2017-04-10 (주)엠아이웨어 Method of calculating distance between cars
JP6299208B2 (en) * 2013-12-26 2018-03-28 トヨタ自動車株式会社 Vehicle surrounding situation estimation device
KR20190106919A (en) 2019-08-30 2019-09-18 엘지전자 주식회사 Artificial device and method for controlling the same
CN110509873A (en) * 2019-09-27 2019-11-29 京东方科技集团股份有限公司 Reverse image auxiliary device and method, reverse image
JP2021109298A (en) * 2020-01-15 2021-08-02 Dmg森精機株式会社 Image processing device, machine tool and image processing method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239521B2 (en) * 1993-03-30 2001-12-17 トヨタ自動車株式会社 Mobile object recognition device
JP4593070B2 (en) * 2001-12-12 2010-12-08 株式会社エクォス・リサーチ Image processing apparatus for vehicle
JP4687160B2 (en) * 2005-03-14 2011-05-25 アイシン精機株式会社 Perimeter monitoring device
JP4720386B2 (en) * 2005-09-07 2011-07-13 株式会社日立製作所 Driving assistance device
JP4807152B2 (en) * 2006-06-15 2011-11-02 住友電気工業株式会社 Obstacle detection system and obstacle detection method
JP4367475B2 (en) * 2006-10-06 2009-11-18 アイシン精機株式会社 Moving object recognition apparatus, moving object recognition method, and computer program
JP4600391B2 (en) * 2006-12-19 2010-12-15 住友電気工業株式会社 Display device, display system, and display method

Also Published As

Publication number Publication date
JP2010108182A (en) 2010-05-13

Similar Documents

Publication Publication Date Title
JP4631096B2 (en) Vehicle periphery monitoring device
JP4733756B2 (en) Vehicle periphery monitoring device
JP3764086B2 (en) Vehicle information providing device
JP5706874B2 (en) Vehicle periphery monitoring device
JP5421072B2 (en) Approaching object detection system
JP4410292B1 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
EP2544449B1 (en) Vehicle perimeter monitoring device
JP4815488B2 (en) Vehicle periphery monitoring device
JP5687702B2 (en) Vehicle periphery monitoring device
US20070211919A1 (en) Vehicle surroundings monitoring apparatus
JP4528283B2 (en) Vehicle periphery monitoring device
JP2008027309A (en) Collision determination system and collision determination method
JP2007310706A (en) Vehicle periphery monitoring device
JP5004923B2 (en) Vehicle driving support device
JP4864953B2 (en) Vehicle periphery monitoring device
JP4176558B2 (en) Vehicle periphery display device
JP6087240B2 (en) Vehicle periphery monitoring device
JP2008042759A (en) Image processing apparatus
JP5399887B2 (en) Vehicle periphery monitoring device
JP5430213B2 (en) Vehicle periphery monitoring device
JP4975776B2 (en) Vehicle periphery monitoring device
JP5904927B2 (en) Vehicle periphery monitoring device
JP5602354B2 (en) Vehicle periphery monitoring device
JP2003309843A (en) Obstacle warning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees