JP2010257229A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2010257229A
JP2010257229A JP2009106629A JP2009106629A JP2010257229A JP 2010257229 A JP2010257229 A JP 2010257229A JP 2009106629 A JP2009106629 A JP 2009106629A JP 2009106629 A JP2009106629 A JP 2009106629A JP 2010257229 A JP2010257229 A JP 2010257229A
Authority
JP
Japan
Prior art keywords
image
vehicle
determination
periphery monitoring
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009106629A
Other languages
Japanese (ja)
Other versions
JP5430213B2 (en
Inventor
Shinji Nagaoka
伸治 長岡
Makoto Aimura
誠 相村
Yukihiro Matsuda
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009106629A priority Critical patent/JP5430213B2/en
Publication of JP2010257229A publication Critical patent/JP2010257229A/en
Application granted granted Critical
Publication of JP5430213B2 publication Critical patent/JP5430213B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring device for preventing the possibility of contact between an object and an own vehicle from being erroneously determined when determining the possibility of contact based on the enlargement rate of the image section of the same object extracted from the time-series image of one camera. <P>SOLUTION: The vehicle periphery monitoring device includes: a change rate calculation means 21 for calculating the change rate Rate of the size of the image section of the same object from a time-series image picked up by a single camera 2; a warning determination means 25 for determining whether or not the object is the target of warning processing based on the change rate Rate; a lane recognition means for recognizing the traveling lane of the vehicle in the time-series image; and a warning determination target removal means for, when the image section of the object in the time-series image is positioned in any region other than the image region of the traveling lane of the vehicle in the image, removing the object from the target of the warning processing by the warning determination means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両に搭載された撮像手段により撮像された画像に基づいて、車両の周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle based on an image captured by an imaging unit mounted on the vehicle.

従来より、車両に搭載された1台のカメラにより撮像された時系列画像から、同一の対象物の画像部分を抽出し、各画像間における画像部分の変化率から対象物の実空間位置を求めて、対象物と車両との接触可能性を判断するようにした車両周辺監視装置が知られている(例えば、特許文献1参照)。
特許文献1に記載された車両周辺監視装置においては、対象物と車両との接触可能性が高いと判断されたときに、ブザーによる警報音の出力やディスプレイへの警報表示等を行って、運転者に注意を促すようにしている。
Conventionally, an image part of the same object is extracted from a time-series image captured by a single camera mounted on a vehicle, and the real space position of the object is obtained from the rate of change of the image part between the images. A vehicle periphery monitoring device is known that determines the possibility of contact between an object and a vehicle (see, for example, Patent Document 1).
In the vehicle periphery monitoring device described in Patent Document 1, when it is determined that the possibility of contact between the object and the vehicle is high, an alarm sound is output by a buzzer, an alarm is displayed on the display, etc. The attention is drawn to the person.

特開2007−213561号公報JP 2007-213561 A

特許文献1に記載された車両周辺監視装置は、車両の速度が対象物の速度よりも十分に高いとみなして、対象物の画像部分の変化率から対象物の実空間位置を求めている。そのため、対象物が静止物や歩行者等であって、対象物の速度が車両の速度よりも極めて小さく、対象物と車両の相対速度が車両の速度とほぼ一致するときには、対象物の実空間位置を精度良く求めることができる。   The vehicle periphery monitoring device described in Patent Literature 1 determines that the speed of the vehicle is sufficiently higher than the speed of the object and determines the real space position of the object from the rate of change of the image portion of the object. Therefore, when the object is a stationary object, a pedestrian, etc., the speed of the object is extremely smaller than the speed of the vehicle, and the relative speed of the object and the vehicle substantially matches the speed of the vehicle, the real space of the object The position can be obtained with high accuracy.

しかし、図10に示したように、対象物が、例えば対向車線81を走行する他車両Bであるときには、走行車線80を走行中の自車両Aと他車両B間の相対速度と自車両Aの速度との速度差が大きくなる。そして、時系列画像90,91間の対象物の画像部分95,94の変化率から算出した他車両Bの実空間位置が、実際の位置よりも自車両Aに近くなる。   However, as shown in FIG. 10, when the object is, for example, another vehicle B traveling on the oncoming lane 81, the relative speed between the own vehicle A traveling on the traveling lane 80 and the other vehicle B and the own vehicle A The speed difference from the speed increases. Then, the real space position of the other vehicle B calculated from the rate of change of the image portions 95 and 94 of the object between the time series images 90 and 91 is closer to the own vehicle A than the actual position.

図10において、t=t91は画像91の撮像時点(現在の制御周期)t=t90は画像90の撮像時点(1つ前の制御周期)を示している。また、X90は現在の他車両Bの横方向(自車両Aの車幅方向)の実位置を示し、Z90は現在の他車両Bの縦方向(自車両Aの進行方向)の実位置を示している。また、X91は現在の他車両Bの横方向の算出位置を示し、Z91は現在の他車両Bの縦方向の算出位置を示している。さらに、Cは他車両Bの算出位置を仮想的に示したものである。 In FIG. 10, t = t 91 indicates the time when the image 91 was captured (current control cycle), and t = t 90 indicates the time when the image 90 was captured (the previous control cycle). X 90 indicates the actual position of the other vehicle B in the horizontal direction (the vehicle width direction of the own vehicle A), and Z 90 indicates the actual position of the other vehicle B in the vertical direction (the traveling direction of the own vehicle A). Is shown. X 91 indicates the current calculated position of the other vehicle B in the horizontal direction, and Z 91 indicates the current calculated position of the other vehicle B in the vertical direction. Further, C indicates the calculated position of the other vehicle B virtually.

図10に示した例では、対向車線81を走行していているために接触する可能性がない他車両Bの算出位置(X=X91,Z=Z91)が、実位置(X=X90,Z=Z90)よりも自車両Aに近付いて、他車両Bと自車両Aが接触する可能性が高いと判断されて、誤った警報がなされてしまう。 In the example shown in FIG. 10, the calculated position (X = X 91 , Z = Z 91 ) of the other vehicle B that has no possibility of contact because it is traveling in the oncoming lane 81 is the actual position (X = X 90 , Z = Z 90 ), it is determined that there is a high possibility that the other vehicle B and the own vehicle A come into contact with each other, and an erroneous alarm is issued.

そこで、本発明は、車両に搭載された1台のカメラにより撮像された時系列画像から抽出された同一の対象物の画像部分の大きさの変化率に基いて、対象物に対する警報処理を行うか否かを判断するときに、誤った警報がなされることを抑制した車両周辺監視装置を提供することを目的とする。   Therefore, the present invention performs an alarm process for an object based on the rate of change in the size of the image portion of the same object extracted from a time-series image captured by a single camera mounted on the vehicle. It is an object of the present invention to provide a vehicle periphery monitoring device that suppresses an erroneous alarm when determining whether or not.

本発明は上記目的を達成するためになされたものであり、車両に搭載された単一の撮像手段により撮像された画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像手段により撮像された画像から、対象物の画像部分を抽出する対象物抽出手段と、所定時間間隔をもって前記撮像手段により撮像された複数の画像から、前記対象物抽出手段により抽出された同一の対象物の画像部分の大きさの変化率を算出する変化率算出手段と、前記変化率に基づいて、前記対象物を所定の警報処理の対象とするか否かを判断する警報判断手段とを備えた車両周辺監視装置に関する。   The present invention has been made to achieve the above object, and is a vehicle periphery monitoring device that monitors the periphery of a vehicle using an image captured by a single imaging means mounted on the vehicle, the imaging An object extraction means for extracting an image portion of the object from the image captured by the means, and the same object extracted by the object extraction means from a plurality of images captured by the imaging means at predetermined time intervals A rate-of-change calculating unit that calculates a rate of change in the size of the image portion of the object, and an alarm determining unit that determines whether or not the object is to be subjected to a predetermined alarm process based on the rate of change. The present invention relates to a vehicle periphery monitoring device.

そして、前記撮像手段により撮像された画像における前記対象物の画像部分が、該画像上に設定された前記車両の走行車線の画像領域に応じた判定画像領域外に位置しているときに、前記対象物を前記警報判断手段による前記警報処理の対象とするか否かの判断対象から除外する警報判断除外手段とを備えたことを特徴とする。   And when the image part of the object in the image imaged by the imaging means is located outside the determination image area corresponding to the image area of the traveling lane of the vehicle set on the image, And an alarm determination exclusion means for excluding an object from a determination target of whether or not the alarm determination means is an object of the alarm processing.

かかる本発明によれば、前記対象物が前記判定画像領域外に位置しているときには、前記対象物が対向車線を走行している他車両である可能性がある。そして、この場合に、前記変化率に基づいて、例えば前記対象物が前記車両に到達するまでの時間や、前記対象物の実空間位置の変化等を、前記対象物が静止物であるとして算出すると、他車両の速度の影響により算出誤差が大きくなる。そのため、前記対象物を警報処理の対象とするか否かの判断を正しく行うことができない。   According to the present invention, when the object is located outside the determination image area, the object may be another vehicle traveling in the oncoming lane. In this case, based on the rate of change, for example, the time until the object reaches the vehicle, the change in the real space position of the object, and the like are calculated as the object is a stationary object. Then, the calculation error increases due to the influence of the speed of the other vehicle. Therefore, it is not possible to correctly determine whether or not the object is a target for alarm processing.

そこで、前記警報判断手段により、前記対象物の画像部分が前記判定画像領域外に位置しているときに、前記対象物を前記警報判断手段による警報処理の対象とするか否かの判断対象から除外することによって、前記対象物が他車両であるときのように移動速度が高い場合に、誤った警報処理がなされることを防止することができる。   Therefore, when the image determination part determines whether or not the object is to be subjected to alarm processing by the alarm determination unit when the image portion of the object is located outside the determination image region by the alarm determination unit. By excluding it, it is possible to prevent an erroneous alarm process from being performed when the moving speed is high as when the object is another vehicle.

また、前記撮像手段により撮像された画像から車線の区分線の画像部分を検出し、該検出した区分線に基づいて前記車両の走行車線の画像領域を認識して、前記判定画像領域を設定する判定画像領域設定手段を備えたことを特徴とする。   Further, the image portion of the lane marking is detected from the image captured by the imaging means, the image area of the traveling lane of the vehicle is recognized based on the detected marking line, and the determination image area is set. A determination image region setting unit is provided.

かかる本発明によれば、前記走行車線認識手段により、車線の区分線の画像部分を抽出することによって、より正確に前記車両の走行車線の画像領域を認識して前記判定画像領域を設定することができる。   According to the present invention, the travel lane recognition means extracts the image portion of the lane marking, thereby more accurately recognizing the travel lane image area of the vehicle and setting the determination image area. Can do.

また、予め設定された実空間上の前記車両の進行方向の接近判定領域を、前記撮像手段による撮像画像上に透視変換することによって、前記判定画像領域を設定する判定画像領域設定手段を備えたことを特徴とする。   Further, the vehicle includes a determination image region setting unit that sets the determination image region by perspective-transforming an approach determination region in the traveling direction of the vehicle in a preset real space onto a captured image by the imaging unit. It is characterized by that.

かかる本発明によれば、予め設定された実空間上の接近判定領域から、容易に前記判定画像領域を設定することができる。また、車線の区分線が消失していて、画像から車線の区分線を検出することが困難な場合であっても、前記判定画像領域を設定することができる。   According to the present invention, it is possible to easily set the determination image region from a preset approach determination region in real space. Further, the determination image region can be set even when the lane marking is lost and it is difficult to detect the lane marking from the image.

また、前記警報判断除外手段は、前記対象物の画像部分の垂直方向の最下部が前記判定画像領域外にあるときに、前記対象物の画像部分が前記判定画像領域外に位置していると判断することを特徴とする。   In addition, the warning determination exclusion unit may be configured such that the image portion of the object is located outside the determination image region when the vertical lowermost portion of the image portion of the object is outside the determination image region. It is characterized by judging.

かかる本発明によれば、前記対象物の画像部分の垂直方向の最下部は、実空間における対象物と路面との交点位置に対応した画像上の位置となる。そのため、前記対象物の画像部分の最下部を用いることで、前記対象物が前記車両の走行車線の外側に存在するか否かをより確実に判断することができる。   According to the present invention, the lowest part in the vertical direction of the image portion of the object is the position on the image corresponding to the intersection position of the object and the road surface in the real space. Therefore, by using the lowermost part of the image portion of the object, it can be more reliably determined whether or not the object exists outside the traveling lane of the vehicle.

本発明の車両周辺監視装置の構成図。The block diagram of the vehicle periphery monitoring apparatus of this invention. 図1に示した車両周辺監視装置の車両への取り付け態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of the vehicle periphery monitoring apparatus shown in FIG. 図1に示した画像処理ユニットにおける処理手順を示したフローチャート。3 is a flowchart showing a processing procedure in the image processing unit shown in FIG. 1. 同一対象物の画像部分の大きさの変化率の算出処理の説明図。Explanatory drawing of the calculation process of the change rate of the magnitude | size of the image part of the same target object. 実空間における対象物の移動ベクトルの推定処理の説明図。Explanatory drawing of the estimation process of the movement vector of the target object in real space. 判定画像領域の設定処理の説明図。Explanatory drawing of the setting process of a determination image area | region. 対象物と路面との交点に対応する画像上の位置を求める処理の説明図。Explanatory drawing of the process which calculates | requires the position on the image corresponding to the intersection of a target object and a road surface. 対象物の画像部分が判定画像領域外にあるか否かの判断の説明図。Explanatory drawing of judgment whether the image part of a target object exists out of the determination image area | region. 同一対象物の画像部分の大きさの変化率の他の算出処理の説明図。Explanatory drawing of the other calculation process of the change rate of the magnitude | size of the image part of the same target object. 対象物の画像部分の変化率に基づいて、対象物と車両との接触可能性を判断するときに生じ得る不都合の説明図。Explanatory drawing of the malfunction which may arise when judging the contact possibility of a target object and a vehicle based on the change rate of the image part of a target object.

本発明の実施の形態について、図1〜図9を参照して説明する。図1を参照して、本実施の形態の車両周辺監視装置は画像処理ユニット1により構成されている。画像処理ユニット1には、遠赤外線を検出可能な赤外線カメラ2(本発明の撮像手段に相当する)、車両のヨーレートを検出するヨーレートセンサ3、車両の走行速度を検出する車速センサ4(本発明の車速検出手段に相当する)、運転者によるブレーキの操作量を検出するブレーキセンサ5、音声により注意喚起を行うためのスピーカ6、及び、赤外線カメラ2により得られた画像を表示すると共に、接触する可能性が高い対象物を運転者に視認させる表示を行うためのヘッドアップディスプレイ(Head Up Display、以下、HUDという)7が接続されている。   Embodiments of the present invention will be described with reference to FIGS. Referring to FIG. 1, the vehicle periphery monitoring device of the present embodiment is configured by an image processing unit 1. The image processing unit 1 includes an infrared camera 2 (corresponding to the imaging means of the present invention) that can detect far infrared rays, a yaw rate sensor 3 that detects the yaw rate of the vehicle, and a vehicle speed sensor 4 that detects the traveling speed of the vehicle (the present invention). Display the image obtained by the brake sensor 5 for detecting the amount of brake operation by the driver, the speaker 6 for alerting by voice, and the infrared camera 2, and the contact. A head up display (hereinafter referred to as “HUD”) 7 is connected to display an object that is likely to be displayed to the driver.

図2を参照して、赤外線カメラ2は、車両10の前部に配置され、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。また、HUD7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。   Referring to FIG. 2, the infrared camera 2 is disposed in the front portion of the vehicle 10 and has a characteristic that the output level increases (the luminance increases) as the temperature of the imaged object increases. Further, the HUD 7 is provided such that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 10.

また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2から出力されるアナログの映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、該画像メモリに取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。   Referring to FIG. 1, an image processing unit 1 is an electronic unit composed of a microcomputer (not shown) and the like, and converts an analog video signal output from an infrared camera 2 into digital data to generate an image. The microcomputer has a function of performing various arithmetic processes by the microcomputer with respect to an image in front of the vehicle, which is taken into a memory (not shown) and taken into the image memory.

そして、該マイクロコンピュータに、車両監視用プログラムを実行させることによって、該マイクロコンピュータが、赤外線カメラ2により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段20、赤外線カメラ2により所定時間間隔をもって撮像された画像間における同一の対象物の画像部分の大きさの変化率を算出する変化率算出手段21、この変化率を用いて対象物が車両10に到達するまでの時間を推定する到達時間推定手段22、対象物の実空間位置を算出する実空間位置算出手段23、実空間における対象物の移動ベクトルを算出する移動ベクトル算出手段24、この移動ベクトルに基づいて対象物を警報の対象とするか否かを判断する警報判断手段25、画像上に車両10の走行車線に応じた判定画像領域を設定する判定画像領域設定手段26、及び対象物を警報判断手段による警報の対象とするか否かの判断対象から除外する警報判断除外手段27を備えている。   Then, by causing the microcomputer to execute a vehicle monitoring program, the microcomputer extracts an image portion of an object in real space from an image captured by the infrared camera 2, Change rate calculation means 21 for calculating the rate of change in the size of the image portion of the same object between images taken at a predetermined time interval by the infrared camera 2, and the object reaches the vehicle 10 using this rate of change. Arrival time estimation means 22 for estimating the time until the object, real space position calculation means 23 for calculating the real space position of the object, movement vector calculation means 24 for calculating the movement vector of the object in the real space, and based on this movement vector Warning judgment means 25 for judging whether or not the object is to be alerted, a judgment image corresponding to the traveling lane of the vehicle 10 on the image And a determination image area setting unit 26, and whether or not to exclude the warning determining excluding means 27 determines the target of interest of the warning by the warning judging means an object to set the region.

次に、図3に示したフローチャートに従って、画像処理ユニット1による一連の対象物の監視処理について説明する。画像処理ユニット1は、所定の制御周期毎に図3に示したフローチャートによる処理を実行して車両10の周辺を監視する。   Next, a series of object monitoring processes by the image processing unit 1 will be described with reference to the flowchart shown in FIG. The image processing unit 1 monitors the periphery of the vehicle 10 by executing the process according to the flowchart shown in FIG.

画像処理ユニット1は、先ずSTEP1で赤外線カメラ2から出力されるアナログの映像信号を入力し、この映像信号をデジタルの諧調(輝度)データに変換したグレースケール画像を画像メモリに取り込む。   The image processing unit 1 first receives an analog video signal output from the infrared camera 2 in STEP 1 and takes in a grayscale image obtained by converting the video signal into digital gradation (luminance) data into an image memory.

続くSTEP2は対象物抽出手段20による処理である。対象物抽出手段20は、グレースケール画像の各画素について、輝度が所定の閾値以上である画素を「1」(白)とし、輝度が閾値よりも小さい画素を「0」(黒)とする2値化処理を行って2値画像を取得する。そして、対象物抽出手段20は、2値画像中の白の各領域のランレングスデータを算出し、ラベリング処理等を行って対象物の画像部分を抽出する。   The subsequent STEP 2 is processing by the object extraction means 20. For each pixel of the grayscale image, the object extraction unit 20 sets a pixel having a luminance equal to or higher than a predetermined threshold to “1” (white), and sets a pixel having a luminance lower than the threshold to “0” (black) 2 A binarization process is performed to obtain a binary image. Then, the object extraction means 20 calculates the run length data of each white region in the binary image, performs a labeling process or the like, and extracts the image portion of the object.

次のSTEP3は、変化率算出手段21による処理である。変化率算出手段21は、図4に示したように、前回の制御周期(撮像時点t11)で撮像された画像Im1と、今回の制御周期(撮像時点t12)で撮像された画像Im2との間で、同一の対象物の画像部分を追跡する処理を行う。なお、この追跡の処理については、上掲した特開2007−213561号公報に詳説されているので、ここでは説明を省略する。 The next STEP 3 is processing by the change rate calculation means 21. As shown in FIG. 4, the rate-of-change calculating means 21 includes an image Im1 picked up in the previous control cycle (image pickup time t 11 ) and an image Im2 picked up in the current control cycle (image pickup time t 12 ). The processing for tracking the image portion of the same object is performed. Note that this tracking process is described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2007-213561, and thus the description thereof is omitted here.

そして、変化率算出手段21は、以下の式(1)により、画像Im3における画像部分51の幅w11を画像Im4における画像部分52の幅w12で除して、変化率Rateを算出する。なお、車両10と対象物間の相対速度Vsは、車速センサ4により検出される車両10の走行速度で近似される。 Then, the change rate calculating unit 21, by the following equation (1), by dividing the width w 11 of the image portion 51 in the image Im3 width w 12 of the image portion 52 in the image Im 4, calculates a change rate Rate. The relative speed Vs between the vehicle 10 and the object is approximated by the traveling speed of the vehicle 10 detected by the vehicle speed sensor 4.

Figure 2010257229
Figure 2010257229

但し、w11:前回の撮像時(撮像時点t11)における対象物の画像部分の幅、w12:今回の撮像時(撮像時点t12)における対象物の画像部分の幅、f:f=F(赤外線カメラ2の焦点距離)/p(撮像画像の画素ピッチ)、W:実空間における対象物の幅、Z1:前回の撮像時(撮像時点t11)における車両10から対象物までの距離、Z2:今回の撮像時(撮像時点t12)における車両10から対象物までの距離、Vs:車両と対象物間の相対速度、dT:撮像間隔、Tr:自車両到達時間(対象物が車両10に到達するまでの推定時間)。 However, w 11 : the width of the image portion of the object at the time of previous imaging (imaging time t 11 ), w 12 : the width of the image portion of the object at the time of current imaging (imaging time t 12 ), f: f = F (focal length of the infrared camera 2) / p (pixel pitch of the captured image), W: width of the object in real space, Z 1 : from the vehicle 10 to the object at the time of previous imaging (imaging time t 11 ) Distance, Z 2 : Distance from the vehicle 10 to the object at the time of the current imaging (imaging time t 12 ), Vs: Relative speed between the vehicle and the object, dT: Imaging interval, Tr: Time of arrival of the vehicle (object) Estimated time until the vehicle 10 reaches the vehicle 10).

続くSTEP23〜STEP24は実空間位置算出手段23による処理である。実空間位置算出手段23は、STEP4で、上記式(1)において、車両10と対象物間の相対速度Vs(=車両10の走行速度Vj+対象物の移動速度Vd)が、車両10の走行速度Vjが対象物の移動速度Vdよりも十分に高いとみなして、車両10の走行速度Vjに置き換えて変形した以下の式(2)により、今回の撮像時における車両10から対象物までの距離Z2を算出する。 Subsequent STEP 23 to STEP 24 are processes by the real space position calculating means 23. The real space position calculation means 23 is STEP4, and in the above formula (1), the relative speed Vs between the vehicle 10 and the object (= the traveling speed Vj of the vehicle 10 + the moving speed Vd of the object) is the traveling speed of the vehicle 10. Assuming that Vj is sufficiently higher than the moving speed Vd of the object, the distance Z from the vehicle 10 to the object at the time of the current imaging is calculated by the following equation (2) that is replaced with the traveling speed Vj of the vehicle 10 and deformed. 2 is calculated.

Figure 2010257229
Figure 2010257229

但し、Z2:今回の撮像時における車両10から対象物までの距離、Rate:変化率、Vj:車両10の走行速度、dT:撮像間隔。 However, Z 2 : distance from the vehicle 10 to the object at the time of the current imaging, Rate: rate of change, Vj: travel speed of the vehicle 10, dT: imaging interval.

また、実空間位置算出手段23は、以下の式(3)により、前回の撮像時における車両10から対象物までの距離Z1を算出する。 Moreover, the real space position calculation means 23 calculates the distance Z 1 from the vehicle 10 to the object at the time of the previous imaging by the following equation (3).

Figure 2010257229
Figure 2010257229

但し、Z1:前回の撮像時における車両10から対象物までの距離、Z2:今回の撮像時における車両10から対象物までの距離、Vj:車両10の走行速度、dT:撮像間隔。 Where Z 1 is the distance from the vehicle 10 to the object at the time of the previous imaging, Z 2 is the distance from the vehicle 10 to the object at the time of the current imaging, Vj is the traveling speed of the vehicle 10, and dT is the imaging interval.

続くSTEP5は実空間位置算出手段23による処理である。実空間位置算出手段23は、今回及び前回の2値画像における対象物の画像部分の位置から、今回及び前回の撮像時における対象物の実空間位置を算出する。   The subsequent STEP 5 is processing by the real space position calculation means 23. The real space position calculation means 23 calculates the real space position of the object at the time of the current and previous imaging from the position of the image portion of the object in the current and previous binary images.

ここで、図6(a)は、2値画像Im5上の今回の対象物の画像部分の位置Pi_2(x12,y12)と、前回の対象物の画像部分の位置Pi_1(x11,y11)を示しており、縦軸yが画像の垂直方向に設定され、横軸xが画像の水平方向に設定されている。 Here, FIG. 6A shows the position Pi_2 (x 12 , y 12 ) of the image portion of the current object on the binary image Im5 and the position Pi_1 (x 11 , y of the image portion of the previous object. 11 ), the vertical axis y is set in the vertical direction of the image, and the horizontal axis x is set in the horizontal direction of the image.

また、図6(b)は実空間上の対象物の移動状況を示しており、Z軸が車両10の進行方向に設定され、X軸がZ軸と直交する方向に設定されている。そして、図中Pr_2(X12,Y12,Z12)は今回の撮像時における対象物の位置を示し、Pr_1(X11,Y11,Z11)は前回の撮像時における対象物の位置を示している。また、Vmは、Pr_2とPr_1から推定した実空間上の対象物の移動ベクトルである。 FIG. 6B shows the movement of the object in real space, where the Z axis is set in the traveling direction of the vehicle 10 and the X axis is set in the direction orthogonal to the Z axis. In the figure, Pr_2 (X 12 , Y 12 , Z 12 ) indicates the position of the object at the time of the current imaging, and Pr_1 (X 11 , Y 11 , Z 11 ) indicates the position of the object at the time of the previous imaging. Show. Vm is a movement vector of an object in real space estimated from Pr_2 and Pr_1.

実空間位置算出手段23は、以下の式(4)により今回の撮像時における対象物の実空間座標Pr_2(X12,Y12,Z12)を算出し、以下の式(5)により前回の撮像時における監視対象物の実空間座標Pr_1(X11,Y11,Z11)を算出する。なお、Z11=Z1、Z12=Z2である。 The real space position calculation means 23 calculates the real space coordinates Pr_2 (X 12 , Y 12 , Z 12 ) of the object at the time of the current imaging by the following formula (4), and the previous formula (5) The real space coordinates Pr_1 (X 11 , Y 11 , Z 11 ) of the monitored object at the time of imaging are calculated. Note that Z 11 = Z 1 and Z 12 = Z 2 .

Figure 2010257229
Figure 2010257229

但し、X12,Y12:今回の撮像時における対象物の実空間座標値、x12,y12:今回の2値画像における対象物の画像部分の座標値、Z2:今回の撮像時における車両から対象物までの距離、f:f=F(赤外線カメラの焦点距離)/p(撮像画像の画素ピッチ)。 Where X 12 , Y 12 are real space coordinate values of the object at the time of the current imaging, x 12 , y 12 are coordinate values of the image portion of the object in the current binary image, and Z 2 is at the time of the current imaging. Distance from vehicle to object, f: f = F (focal length of infrared camera) / p (pixel pitch of captured image).

Figure 2010257229
Figure 2010257229

但し、X11,Y11:前回の撮像時における対象物の実空間座標値、x11,y11:前回の2値画像における対象物の画像部分の座標値、Z1:前回の撮像時における車両から対象物までの距離、f:f=F(赤外線カメラの焦点距離)/p(撮像画像の画素ピッチ)。 However, X 11 , Y 11 : Real space coordinate value of the object at the previous imaging, x 11 , y 11 : Coordinate value of the image part of the object in the previous binary image, Z 1 : At the previous imaging Distance from vehicle to object, f: f = F (focal length of infrared camera) / p (pixel pitch of captured image).

また、実空間位置算出手段23は、車両10が回頭することによる画像上の位置ずれを、ヨーレートセンサ3の検出信号YRから認識される回頭角に基づいて補正する回頭角補正を行う。具体的には、前回の撮像時から今回の撮像時までの間における車両10の回頭角がθrであったときに、以下の式(6)により実空間座標値を補正する。   Further, the real space position calculation means 23 performs a turning angle correction for correcting a positional shift on the image due to the turning of the vehicle 10 based on the turning angle recognized from the detection signal YR of the yaw rate sensor 3. Specifically, when the turning angle of the vehicle 10 from the previous imaging to the current imaging is θr, the real space coordinate value is corrected by the following equation (6).

Figure 2010257229
Figure 2010257229

但し、Xr,Yr,Zr:回頭角補正後の実空間座標値、θr:回頭角、Xo,Yo,Zo:回頭角補正前の実空間座標値。   However, Xr, Yr, Zr: real space coordinate value after turning angle correction, θr: turning angle, Xo, Yo, Zo: real space coordinate value before turning angle correction.

続くSTEP6は移動ベクトル算出手段24による処理である。移動ベクトル算出手段24は、図6(b)に示したように、同一の対象物についての前回の撮像時の実空間位置Pr_1と今回の撮像時の実空間位置Pr_2から、対象物と自車両10との相対移動ベクトルに対応する近似直線Vmを求める。   The subsequent STEP 6 is processing by the movement vector calculation means 24. As shown in FIG. 6 (b), the movement vector calculation means 24 calculates the object and the host vehicle from the real space position Pr_1 at the previous imaging time and the real space position Pr_2 at the current imaging time for the same object. An approximate straight line Vm corresponding to the relative movement vector with respect to 10 is obtained.

なお、過去の複数時点における対象物の実空間位置を用いて、相対移動ベクトルを求めるようにしてもよい。また、近時直線の具体的な算出処理は、例えば特開2001−6096号公報に記載された手法による。   Note that the relative movement vector may be obtained using the real space position of the object at a plurality of past time points. Moreover, the concrete calculation process of a recent straight line is based on the method described in Unexamined-Japanese-Patent No. 2001-6096, for example.

続くSTEP7は判定画像領域設定手段26による処理である。判定画像領域設定手段26は、対象物が車両10の走行車線の位置に応じた判定画像領域を、画像上に設定する処理を行う。   The subsequent STEP 7 is processing by the determination image region setting means 26. The determination image region setting unit 26 performs a process of setting a determination image region on the image according to the position of the traveling lane of the vehicle 10.

図6(a)は、後述する警報判断手段25により、対象物と車両10との接触可能性を判断するために設定される実空間上の接近判定領域Ar1と、接近判定領域Ar1の左右に設定された侵入判定領域Ar2,Ar3を、車両10の進行方向をZ、Zと直交する方向(車両10の車幅方向)をXとして示したものである。また、Lr1は車両10の走行車線の右側の区分線、Lr2は車両10の走行車線の左側の区分線、Wは車両10が走行車線の中央を走行しているときの車両10と区分線Lr1,Lr2との間隔である。   FIG. 6A shows an approach determination area Ar1 in the real space set to determine the possibility of contact between the object and the vehicle 10 by the alarm determination means 25 described later, and left and right of the approach determination area Ar1. The intrusion determination areas Ar2 and Ar3 thus set are shown with the traveling direction of the vehicle 10 as Z and the direction orthogonal to Z (the vehicle width direction of the vehicle 10) as X. Lr1 is a dividing line on the right side of the traveling lane of the vehicle 10, Lr2 is a dividing line on the left side of the traveling lane of the vehicle 10, and W is a dividing line Lr1 with the vehicle 10 when the vehicle 10 is traveling in the center of the traveling lane. , Lr2.

警報判断手段25は、対象物が接近判定領域Ar1内に存在するか、対象物が侵入判定領域Ar2又はAr3に存在して対象物の移動ベクトルが接近判定領域Ar1内に向かっているときに、この対象物を警報の対象とする。   The alarm determination means 25 is configured to detect when the object is in the approach determination area Ar1, or when the object is in the intrusion determination area Ar2 or Ar3 and the movement vector of the object is in the approach determination area Ar1. This object is set as an alarm target.

ここで、図6(b)に示したように、図6(a)に示した区分線(直線)Lr1,Lr2を、赤外線カメラ2の取付パラメータ(取付高さH、取付パン角θ、取付ピッチ角φ)を用いた透視変換により図6(b)の画像Im6上に投影すると、直線Li1,Li2となる。そして、判定画像領域設定手段26は、図6(b)の直線Li1とLi2で挟まれた領域ar1を、判定画像領域として設定する。   Here, as shown in FIG. 6 (b), the dividing lines (straight lines) Lr1 and Lr2 shown in FIG. 6 (a) are changed to the mounting parameters (mounting height H, mounting pan angle θ, mounting of the infrared camera 2). When projected onto the image Im6 in FIG. 6B by perspective transformation using the pitch angle φ), straight lines Li1 and Li2 are obtained. Then, the determination image area setting unit 26 sets an area ar1 sandwiched between the straight lines Li1 and Li2 in FIG. 6B as a determination image area.

なお、図6(b)に示したような透視変換によらずに、画像上で実空間上の接近判定領域に相当する位置を想定して、判定画像領域を設定するようにしてもよい。また、画像から走行車線の区分線の画像部分を検出して走行車線の画像領域を認識し、走行車線の画像領域に応じて判定画像領域を設定するようにしてもよい。   Note that the determination image region may be set assuming a position corresponding to the approach determination region in the real space on the image without using the perspective transformation as illustrated in FIG. Alternatively, the image portion of the lane marking of the travel lane may be detected from the image to recognize the travel lane image area, and the determination image area may be set according to the travel lane image area.

続くSTEP8及びSTEP9は警報判断除外手段27による処理である。警報判断除外手段27は、図7(a)に示した今回の対象物のグレースケール画像の画像部分と、図7(b)に示した前回の対象物のグレースケール画像の画像部分との間で、相関演算を行うことによって、実空間における対象物と路面との交点に対応する画像上での位置を認識する。   Subsequent STEP 8 and STEP 9 are processes by the alarm judgment exclusion means 27. The alarm judgment exclusion means 27 is provided between the image portion of the gray scale image of the current object shown in FIG. 7A and the image portion of the gray scale image of the previous object shown in FIG. Thus, by performing correlation calculation, the position on the image corresponding to the intersection of the object and the road surface in the real space is recognized.

警報判断除外手段27は、先ず、図7(a)の今回の対象物の画像部分の一部A1の周囲に、マトリックス状に50個のマスク領域M1(M1(0,0)、M1(1.0)、…、M1(5,8))を設定する。なお、各マスク領域における黒点は各マスク領域の重心位置を示している。   First, the alarm judgment excluding means 27 includes 50 mask areas M1 (M1 (0,0), M1 (1.0) in a matrix around the part A1 of the image portion of the current object in FIG. ),..., M1 (5,8)). Note that the black dot in each mask area indicates the position of the center of gravity of each mask area.

そして、警報対象除外手段27は、前回のグレースケール画像から、対象物の画像部分を抽出する。具体的には、図7(a)に示した各マスク領域M1(0,0)〜M1(5,8)を、変化率Rateでアフィン変換した比較パターンについて、前記のグレースケール画像に対してパターンマッチング処理を実行する。   Then, the alarm target exclusion unit 27 extracts the image portion of the target object from the previous gray scale image. Specifically, a comparison pattern obtained by affine transforming each of the mask areas M1 (0,0) to M1 (5,8) shown in FIG. Perform pattern matching processing.

図7(b)は、パターンマッチングの結果を示したものであり、図7(a)の歩行者の胴部及び脚部の画像B1に対応するB2を含む12個の領域M2(1,3)、M2(2,3)、M2(3,3)、M2(4,3)、M2(1,4)、M2(2,4)、M2(3,4)、M2(4,4)、M2(2,5)、M2(3,5)、M2(2,6)、M2(3,6)が抽出されている。例えば、図7(b)のM2(1,3)は図7(a)のM1(1,3)をアフィン変換した比較パターンにより抽出された領域を示しており、図7(b)のM2(4,3)は図7(a)のM1(4,3)をアフィン変換した比較パターンにより抽出された領域を示している。   FIG. 7B shows the result of pattern matching. Twelve regions M2 (1,3 including B2 corresponding to the image B1 of the trunk and legs of the pedestrian in FIG. 7A are shown. ), M2 (2,3), M2 (3,3), M2 (4,3), M2 (1,4), M2 (2,4), M2 (3,4), M2 (4,4) , M2 (2,5), M2 (3,5), M2 (2,6), and M2 (3,6) are extracted. For example, M2 (1,3) in FIG. 7B shows a region extracted by a comparison pattern obtained by affine transformation of M1 (1,3) in FIG. 7A, and M2 in FIG. 7B. (4,3) indicates a region extracted by a comparison pattern obtained by affine transformation of M1 (4,3) in FIG.

図7(b)中の黒点は、図7(a)におけるマスク領域M1(1,3)、M1(2,3)、M1(3,3)、M1(4,3)、M1(1,4)、M1(2,4)、M1(3,4)、M1(4,4)、M1(2,5)、M1(3,5)、M1(2,6)、M1(3,6)の各重心位置に対応した位置(A2に対して、マスク領域M1を変化率Rateで縮小した領域の重心位置)を示している。また、図7(b)中の×点は、パターンマッチングにより抽出された各領域M2の重心位置を示している。   The black dots in FIG. 7B are the mask regions M1 (1,3), M1 (2,3), M1 (3,3), M1 (4,3), M1 (1, 4), M1 (2,4), M1 (3,4), M1 (4,4), M1 (2,5), M1 (3,5), M1 (2,6), M1 (3,6 ) Corresponding to each centroid position (the centroid position of the area obtained by reducing the mask area M1 at the rate of change Rate with respect to A2). Further, the x point in FIG. 7B indicates the barycentric position of each region M2 extracted by pattern matching.

対象物抽出手段20は、以下の式(7)により、パターンマッチングにより抽出された各領域の重心位置(xm(i,j),ym(i,j))と、マスク領域に対応した重心位置(xb(i,j),yb(i,j))とのずれ量Dが、閾値THよりも小さいか否かを判断する。なお、i,jはマスク領域のインデックスを示している。   The object extraction means 20 uses the following equation (7) to extract the centroid position (xm (i, j), ym (i, j)) of each area extracted by pattern matching and the centroid position corresponding to the mask area. It is determined whether or not the deviation amount D from (xb (i, j), yb (i, j)) is smaller than the threshold value TH. Here, i and j indicate the index of the mask area.

Figure 2010257229
Figure 2010257229

但し、D:マスク領域に対応した重心位置とパターンマッチングにより抽出された領域の重心位置とのずれ量、TH:閾値。   However, D: deviation | shift amount of the gravity center position corresponding to a mask area | region and the gravity center position of the area | region extracted by pattern matching, TH: threshold value.

そして、警報判断除外手段27は、ずれ量Dが閾値THよりも小さい領域を対象物の画像部分の一部として抽出する。図7(b)の例では、歩行者の胴部及び脚部の画像B2を含む12個の領域が対象物の画像部分の一部として抽出されている。そのため、図7(b)の例では、A2,M2(1,3),M2(2,3),M2(3,3),M2(4,3),M2(1,4),M2(2,4),M2(3,4),M2(4,4),M2(2,5),M2(3,5),M2(2,6),M2(3,6)を含む領域S2が、対象物の画像部分として抽出される。   Then, the warning determination exclusion unit 27 extracts a region where the deviation amount D is smaller than the threshold value TH as a part of the image portion of the object. In the example of FIG. 7B, twelve areas including the image B2 of the pedestrian's torso and legs are extracted as part of the image portion of the object. Therefore, in the example of FIG. 7B, A2, M2 (1,3), M2 (2,3), M2 (3,3), M2 (4,3), M2 (1,4), M2 ( 2,4), M2 (3,4), M2 (4,4), M2 (2,5), M2 (3,5), M2 (2,6), M2 (3,6) region S2 Are extracted as the image portion of the object.

警報判断除外手段27は、このようにして抽出した対象物の画像部分S2の最下部の位置Pobjを、実空間上の対象物と路面との交点位置に対応する画像上の位置として認識する。なお、最下部の位置Popjは、厳密に垂直方向の最も下側の画素の位置を採用する必要はなく、最も下側の画素付近に設定すればよい。   The alarm judgment exclusion means 27 recognizes the lowest position Pobj of the image portion S2 of the object extracted in this way as the position on the image corresponding to the intersection position between the object and the road surface in the real space. Note that the position of the lowermost pixel Popj does not have to be strictly the position of the lowermost pixel in the vertical direction, and may be set near the lowermost pixel.

そして、続くSTEP9で、警報判断除外手段27は、図8に示したように、対象物の画像部分S2の最下部の位置Pobjが、判定画像領域ar1の外にあるか否かを判断する。図8では、対象物が反対車線を走行する他車両である場合を示しており、対象物の画像部分S2の最下部の位置Pobjが判定画像領域ar1の外にある。   Then, in subsequent STEP 9, the alarm determination exclusion means 27 determines whether or not the lowest position Pobj of the image portion S2 of the object is outside the determination image area ar1, as shown in FIG. FIG. 8 shows a case where the object is another vehicle traveling in the opposite lane, and the lowest position Pobj of the image portion S2 of the object is outside the determination image area ar1.

そして、この場合には、車両10と対象物(反対車線を走行する他車両)が接触する可能性が低いため、警報判断除外手段27は、対象物を警報判断手段25による警報の対象であるか否かの判断対象から除外してSTEP11に進む。そして、これにより、車両10と対象物との相対速度と車両10の走行速度との相違が大きく、変化率Rateに基づいて対象物の実空間位置を算出したときの誤差が大きくなるときに、対象物を警報の対象から除外して、誤った警報がなされることを防止している。   In this case, since there is a low possibility that the vehicle 10 and the object (another vehicle traveling in the opposite lane) are in contact with each other, the alarm determination exclusion unit 27 is the target of the alarm by the alarm determination unit 25. The process proceeds to STEP11. Thus, when the difference between the relative speed between the vehicle 10 and the object and the traveling speed of the vehicle 10 is large, and the error when calculating the real space position of the object based on the rate of change Rate becomes large, The object is excluded from the alarm target to prevent an erroneous alarm.

一方、対象物の画像部分S2の最下部の位置Pobjが、判定画像領域ar1内となるときには、対象物は車両10の走行車線内に存在する歩行者等であって、その移動速度は車両10の走行速度よりに対して無視できる程度であると想定される。そこで、この場合にはSTEP9からSTEP10に進む。   On the other hand, when the lowermost position Pobj of the image portion S2 of the object is in the determination image area ar1, the object is a pedestrian or the like existing in the travel lane of the vehicle 10, and the moving speed thereof is the vehicle 10. It is assumed that it is negligible with respect to the traveling speed. Therefore, in this case, the process proceeds from STEP 9 to STEP 10.

STEP10,STEP20,STEP30〜STEP31は、警報判断手段25による処理である。   STEP 10, STEP 20, and STEP 30 to STEP 31 are processes by the alarm determination means 25.

警報判断手段25は、STEP10で、(a)対象物が接近判定領域内に存在する、又は(b)対象物が侵入判定領域に存在して対処物の移動ベクトルが接近判定領域に向かっている、という条件が成立しているときは、対象物が警報の対象であると判断してSTEP20に分岐する。一方、上記(a),(b)の条件がいずれも成立していないときにはSTEP11に進む。   In step 10, the alarm determination means 25 is either (a) the object is present in the approach determination area, or (b) the object is present in the intrusion determination area, and the movement vector of the countermeasure is toward the approach determination area. When the condition of is satisfied, it is determined that the object is an alarm target, and the process branches to STEP 20. On the other hand, when neither of the above conditions (a) and (b) is satisfied, the process proceeds to STEP11.

STEP20で、警報判断手段25は、ブレーキセンサ5の出力から運転者によるブレーキ操作が行われているか否かを判断する。そして、ブレーキ操作が行われ、且つ、車両10の加速度(ここでは減速方向を正とする9が予め設定された加速度閾値よりも大きいとき(運転者により適切なブレーキ操作がなされていると想定される)は、警報出力は不要であると判断して、STEP11に進む。   In STEP 20, the alarm determination unit 25 determines whether or not a brake operation is performed by the driver from the output of the brake sensor 5. Then, when the brake operation is performed and the acceleration of the vehicle 10 (9 where the deceleration direction is positive is larger than a preset acceleration threshold value (it is assumed that an appropriate brake operation is performed by the driver). Determines that no alarm output is required, and proceeds to STEP11.

それに対して、ブレーキ操作が行われていないか、或いは車両10の加速度が加速度閾値以下であるときには、STEP30に分岐する。そして、警報判断手段20は、STEP30でスピーカ6から警報音を出力すると共に、STEP31でHUD7に対象物の強調画像を表示して、STEP11に進む。   On the other hand, if the brake operation is not performed or the acceleration of the vehicle 10 is equal to or less than the acceleration threshold value, the process branches to STEP30. Then, the alarm determination means 20 outputs an alarm sound from the speaker 6 at STEP 30, and displays an emphasized image of the object on the HUD 7 at STEP 31, and proceeds to STEP 11.

なお、本実施の形態において、変化率算出手段21は、図5に示した2値画像間の同一対象物の画像部分の時間追跡処理により変化率Rateを算出したが、図9に示した対象物の画像部分の相間演算により変化率Rateを算出するようにしてもよい。図9を参照して、Im8は前回の撮像時におけるグレースケール画像であり、51は対象物の画像部分を示している。また、Im9は今回の撮像時におけるグレースケール画像であり、52は対象物の画像部分を示している。   In the present embodiment, the change rate calculation means 21 calculates the change rate Rate by the time tracking process of the image portion of the same object between the binary images shown in FIG. 5, but the target shown in FIG. You may make it calculate change rate Rate by the calculation of the phase of the image part of a thing. Referring to FIG. 9, Im8 is a gray scale image at the time of previous imaging, and 51 indicates an image portion of the object. Im9 is a grayscale image at the time of the current imaging, and 52 indicates an image portion of the object.

そして、変化率算出手段21は、今回のグレースケール画像Im8における対象物の画像部分50の大きさをアフィン変換により縮小(対象物が自車両に近づいている場合)又は拡大(対象物が自車両から遠ざかっている場合)して、前回の撮像時における対象物の画像部分51との相間度を算出する。具体的には、図示したように、画像部分50を1.5倍した画像60,1.25倍した画像61、1.0倍した画像62、0.75倍した画像63、0.5倍した画像64と、画像部分51との相間度を算出する。そして、変化率算出手段21は、相間度が最も高くなったときの画像部分50の倍率を変化率Rateとして決定する。   Then, the change rate calculation means 21 reduces or enlarges the size of the image portion 50 of the target object in the current grayscale image Im8 (when the target object approaches the host vehicle) or enlarges the target object (the target object is the host vehicle). And the degree of correlation with the image portion 51 of the object at the previous imaging is calculated. Specifically, as shown in the figure, an image 60 obtained by multiplying the image portion 50 by 1.5, an image 61 by 1.25 times, an image 62 by 1.0 times, an image 63 by 0.75 times, and a 0.5 times image. The degree of correlation between the obtained image 64 and the image portion 51 is calculated. Then, the change rate calculation means 21 determines the magnification of the image portion 50 when the degree of correlation is the highest as the change rate Rate.

また、本実施の形態においては、移動ベクトル算出手段24により対象物の実空間における移動ベクトルを求めて、対象物を警報の対象とするか否かを判断したが、以下の式(7)により車両が対象物に到達するまでの時間(自車両到達時間)Trを算出し、自車両到達時間Trが予め設定された余裕時間以下となったときに、対象物を警報の対象とするようにしてもよい。   In the present embodiment, the movement vector calculation means 24 obtains the movement vector in the real space of the object and determines whether or not the object is to be alarmed. The following equation (7) The time (vehicle arrival time) Tr until the vehicle reaches the object is calculated, and when the vehicle arrival time Tr is equal to or less than a preset margin time, the object is set as an alarm target. May be.

Figure 2010257229
Figure 2010257229

但し、Tr:自車両到達時間、dT:撮像間隔、Rate:変化率。   However, Tr: own vehicle arrival time, dT: imaging interval, Rate: rate of change.

また、本実施の形態では、警報判断除外手段27により、対象物の画像部分が判定画像領域外に位置しているときに、その対象物を警報の対象とするか否かの判断対象から除外したが、他の手法により警報の対象とするか否かを別途判断するようにしてもよい。例えば、対象物の移動速度を検出し、対象物の移動速度を考慮して対象物の実空間位置を算出して、車両と対象物との接触可能性を判断するようにしてもよい。   Further, in the present embodiment, when the image portion of the target object is located outside the determination image area, the alarm determination excluding unit 27 excludes the target object from the determination target as to whether or not the target is an alarm target. However, you may make it judge separately whether it is set as the object of a warning by another method. For example, the moving speed of the object may be detected, the actual space position of the object may be calculated in consideration of the moving speed of the object, and the possibility of contact between the vehicle and the object may be determined.

なお、本実施の形態においては、本発明の撮像手段として赤外線カメラ2を用いたが、可視光のみを検出可能な通常のビデオカメラを用いてもよい。   In the present embodiment, the infrared camera 2 is used as the imaging means of the present invention, but a normal video camera capable of detecting only visible light may be used.

また、本実施の形態においては、車両前方を撮像する構成を示したが、車両の後方や側方等、他の方向を撮像して監視対象物との接触可能性を判断するようにしてもよい。   Further, in the present embodiment, the configuration in which the front of the vehicle is imaged is shown, but it is also possible to determine the possibility of contact with the monitoring object by imaging other directions such as the rear and side of the vehicle. Good.

1…画像処理ユニット、2…赤外線カメラ(撮像手段)、3…ヨーレートセンサ、4…車速センサ、5…ブレーキセンサ、6…スピーカ、7…HUD、20…対象物抽出手段、21…変化率算出手段、22…到達時間推定手段、23…実空間位置算出手段、24…移動ベクトル算出手段、25…警報判断手段、26…判定画像領域設定手段、27…警報判断除外手段。   DESCRIPTION OF SYMBOLS 1 ... Image processing unit, 2 ... Infrared camera (imaging means), 3 ... Yaw rate sensor, 4 ... Vehicle speed sensor, 5 ... Brake sensor, 6 ... Speaker, 7 ... HUD, 20 ... Object extraction means, 21 ... Change rate calculation Means 22: arrival time estimation means 23 ... real space position calculation means 24 ... movement vector calculation means 25 ... warning judgment means 26 ... judgment image area setting means 27 ... warning judgment exclusion means

Claims (4)

車両に搭載された単一の撮像手段により撮像された画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記撮像手段により撮像された画像から、対象物の画像部分を抽出する対象物抽出手段と、
所定時間間隔をもって前記撮像手段により撮像された複数の画像から、前記対象物抽出手段により抽出された同一の対象物の画像部分の大きさの変化率を算出する変化率算出手段と、
前記変化率に基づいて、前記対象物を所定の警報処理の対象とするか否かを判断する警報判断手段とを備えた車両周辺監視装置において、
前記撮像手段により撮像された画像における前記対象物の画像部分が、該画像上に設定された前記車両の走行車線の画像領域に応じた判定画像領域外に位置しているときに、前記対象物を前記警報判断手段による前記警報処理の対象とするか否かの判断対象から除外する警報判断除外手段とを備えたことを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using an image captured by a single imaging means mounted on the vehicle,
Object extraction means for extracting an image portion of the object from the image captured by the imaging means;
A change rate calculating means for calculating a change rate of the size of the image portion of the same object extracted by the object extracting means from a plurality of images taken by the imaging means at a predetermined time interval;
In a vehicle periphery monitoring device comprising alarm judgment means for judging whether or not the object is a target of a predetermined alarm process based on the rate of change,
When the image portion of the object in the image captured by the imaging means is located outside the determination image area corresponding to the image area of the vehicle lane set on the image, the object A vehicle periphery monitoring apparatus, comprising: an alarm determination excluding unit that excludes an alarm from a determination target of whether or not the alarm determination unit performs the alarm processing.
請求項1記載の車両周辺監視装置において、
前記撮像手段により撮像された画像から車線の区分線の画像部分を検出し、該検出したした区分線に基づいて前記車両の走行車線の画像領域を認識して、前記判定画像領域を設定する判定画像領域設定手段を備えたことを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
Determination of detecting an image portion of a lane marking from an image captured by the imaging unit, recognizing an image area of a traveling lane of the vehicle based on the detected marking line, and setting the determination image area A vehicle periphery monitoring device comprising image area setting means.
請求項1記載の車両周辺監視装置において、
予め設定された実空間上の前記車両の進行方向の接近判定領域を、前記撮像手段による撮像画像上に透視変換することによって、前記判定画像領域を設定する判定画像領域設定手段を備えたことを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
A determination image region setting unit configured to set the determination image region by perspective-converting an approach determination region in the traveling direction of the vehicle in a preset real space onto a captured image by the imaging unit; A vehicle periphery monitoring device.
請求項1から請求項3のうちいずれか1項記載の車両周辺監視装置において、
前記警報判断除外手段は、前記対象物の画像部分の垂直方向の最下部が前記判定画像領域外にあるときに、前記対象物の画像部分が前記判定画像領域外に位置していると判断することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 3,
The warning determination excluding means determines that the image portion of the object is located outside the determination image region when the lowest vertical portion of the image portion of the object is outside the determination image region. The vehicle periphery monitoring apparatus characterized by the above-mentioned.
JP2009106629A 2009-04-24 2009-04-24 Vehicle periphery monitoring device Expired - Fee Related JP5430213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009106629A JP5430213B2 (en) 2009-04-24 2009-04-24 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009106629A JP5430213B2 (en) 2009-04-24 2009-04-24 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010257229A true JP2010257229A (en) 2010-11-11
JP5430213B2 JP5430213B2 (en) 2014-02-26

Family

ID=43318057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009106629A Expired - Fee Related JP5430213B2 (en) 2009-04-24 2009-04-24 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5430213B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177196B2 (en) 2011-06-27 2015-11-03 Clarion Co., Ltd. Vehicle periphery monitoring system
JP2018032240A (en) * 2016-08-25 2018-03-01 株式会社Subaru Display device for vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07137574A (en) * 1993-11-15 1995-05-30 Toyota Motor Corp Headlight device for vehicle
JPH085388A (en) * 1994-06-21 1996-01-12 Nissan Motor Co Ltd Running road detecting device
JPH1123291A (en) * 1997-07-04 1999-01-29 Nissan Motor Co Ltd Picture processing device for car
JP2003233802A (en) * 2002-02-08 2003-08-22 Nissan Motor Co Ltd Approaching object detecting device
JP2004032460A (en) * 2002-06-27 2004-01-29 Toshiba Corp Image processing apparatus and method therefor
JP2006254318A (en) * 2005-03-14 2006-09-21 Omron Corp Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JP2007213561A (en) * 2006-01-16 2007-08-23 Honda Motor Co Ltd Vehicle periphery supervisory unit
JP2008299458A (en) * 2007-05-30 2008-12-11 Hitachi Ltd Vehicle monitoring apparatus and vehicle monitoring method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07137574A (en) * 1993-11-15 1995-05-30 Toyota Motor Corp Headlight device for vehicle
JPH085388A (en) * 1994-06-21 1996-01-12 Nissan Motor Co Ltd Running road detecting device
JPH1123291A (en) * 1997-07-04 1999-01-29 Nissan Motor Co Ltd Picture processing device for car
JP2003233802A (en) * 2002-02-08 2003-08-22 Nissan Motor Co Ltd Approaching object detecting device
JP2004032460A (en) * 2002-06-27 2004-01-29 Toshiba Corp Image processing apparatus and method therefor
JP2006254318A (en) * 2005-03-14 2006-09-21 Omron Corp Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JP2007213561A (en) * 2006-01-16 2007-08-23 Honda Motor Co Ltd Vehicle periphery supervisory unit
JP2008299458A (en) * 2007-05-30 2008-12-11 Hitachi Ltd Vehicle monitoring apparatus and vehicle monitoring method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177196B2 (en) 2011-06-27 2015-11-03 Clarion Co., Ltd. Vehicle periphery monitoring system
JP2018032240A (en) * 2016-08-25 2018-03-01 株式会社Subaru Display device for vehicle

Also Published As

Publication number Publication date
JP5430213B2 (en) 2014-02-26

Similar Documents

Publication Publication Date Title
JP5687702B2 (en) Vehicle periphery monitoring device
JP4267657B2 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP4203512B2 (en) Vehicle periphery monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4173901B2 (en) Vehicle periphery monitoring device
US7436982B2 (en) Vehicle surroundings monitoring apparatus
JP4173902B2 (en) Vehicle periphery monitoring device
JP5904925B2 (en) Vehicle periphery monitoring device
US7885430B2 (en) Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
JP5502149B2 (en) Vehicle periphery monitoring device
JP5430213B2 (en) Vehicle periphery monitoring device
JP4176558B2 (en) Vehicle periphery display device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP4975776B2 (en) Vehicle periphery monitoring device
JP5904927B2 (en) Vehicle periphery monitoring device
JP2007168547A (en) Obstacle collision determining system, obstacle collision determining method, and computer program
JP2008257398A (en) Unit, method and program for monitoring vehicle periphery
JP2010128800A (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees