JP2010093569A - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP2010093569A JP2010093569A JP2008261924A JP2008261924A JP2010093569A JP 2010093569 A JP2010093569 A JP 2010093569A JP 2008261924 A JP2008261924 A JP 2008261924A JP 2008261924 A JP2008261924 A JP 2008261924A JP 2010093569 A JP2010093569 A JP 2010093569A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- real space
- image portion
- monitoring device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両に搭載された撮像手段により撮像された画像に基づいて、前記車両の周辺を監視する車両周辺監視装置に関する。
The present invention relates to a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle.
従来より、車載カメラにより撮像した自車両の周辺の画像から車両の周辺に存在する歩行者を検出して、自車両と歩行者との接触可能性を判断し、接触可能性が高いときには運転者に警報をするようにした車両周辺監視装置が提案されている。 Conventionally, a pedestrian existing in the vicinity of a vehicle is detected from an image around the vehicle captured by an in-vehicle camera, and the possibility of contact between the vehicle and the pedestrian is determined. When the possibility of contact is high, the driver There has been proposed a vehicle periphery monitoring device that alerts the vehicle.
そして、車載カメラにより撮像した画像に他車両の画像部分が含まれていると、例えば、他車両のヘッドライトの画像部分を歩行者の頭部の画像部分と誤って認識する等、歩行者の検出の妨げとなる場合がある。そこで、撮像した画像に含まれる他車両の画像部分を判別して、この画像部分を監視対象から除外するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。 And when the image portion of the other vehicle is included in the image captured by the in-vehicle camera, for example, the image portion of the headlight of the other vehicle is erroneously recognized as the image portion of the pedestrian's head, etc. May interfere with detection. Therefore, a vehicle periphery monitoring device has been proposed in which an image portion of another vehicle included in the captured image is discriminated and this image portion is excluded from the monitoring target (see, for example, Patent Document 1).
特許文献1に記載された車両周辺監視装置によれば、車載カメラにより撮像された画像から、他車両の画像部分を除外することにより、歩行者の画像部分を抽出し易くしている。 According to the vehicle periphery monitoring device described in Patent Literature 1, it is easy to extract a pedestrian's image portion by excluding an image portion of another vehicle from an image captured by an in-vehicle camera.
しかし、特許文献1に記載された車両周辺監視装置では、他車両のヘッドランプを想定した高輝度の画像部分について、その周囲の対応する実空間上の位置までの距離が同一である画像部分を求め、両画像部分の輝度差や位置関係を求めて、他車両の画像部分であるか否かを判断している。 However, in the vehicle periphery monitoring device described in Patent Document 1, an image portion having the same distance to a corresponding real space position around the high-luminance image portion assuming a headlamp of another vehicle is used. The luminance difference and the positional relationship between the two image portions are obtained, and it is determined whether or not it is an image portion of another vehicle.
そのため、実空間上の対象物との距離が長くなって、該対象物までの距離の検出精度が悪化すると、該対象物が車両であるか否かを精度良く判別することが難しくなり、車両の画像部分を誤って歩行者と判定するおそれがある。
本発明は上記背景を鑑みてなされたものであり、車両に搭載された撮像手段により撮像された画像から前走車両等の画像部分を精度良く判別して、監視対象から除外することができる車両周辺監視装置を提供することを目的とする。 The present invention has been made in view of the above-described background, and can accurately discriminate an image portion such as a preceding vehicle from an image captured by an imaging unit mounted on the vehicle and exclude it from a monitoring target. An object is to provide a peripheral monitoring device.
本発明は上記目的を達成するためになされたものであり、車両に搭載された撮像手段により撮像された画像に基づいて、前記車両の周辺を監視する車両周辺監視装置の改良に関する。 The present invention has been made in order to achieve the above object, and relates to an improvement in a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle.
そして、本発明の第1の態様は、前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、前記相対速度算出手段により算出された相対速度の変化率が所定値以下である状態が、所定の判定時間以上継続したときに、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする。 And the 1st aspect of this invention is the object extraction means which extracts the image part of the target object in real space from the image imaged by the said imaging means, The image part extracted by the said object extraction means A state in which the relative speed calculation means for calculating the relative speed between the object in the real space corresponding to the vehicle and the vehicle, and the rate of change of the relative speed calculated by the relative speed calculation means is equal to or less than a predetermined value. And non-monitoring object exclusion means for excluding from the monitoring object the object in the real space corresponding to the image portion extracted by the object extraction means when the determination time continues for more than .
かかる本発明によれば、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物(以下、単に対象物という)と、前記車両との相対速度の変化率が所定値以下である場合には、対象物と前記車両とが同一の速度で同一の方向に移動しているか、或いは対象物と前記車両との距離が非常に離れていると判断することができる。そして、この場合には、対象物と前記車両が接触する可能性が低い。 According to the present invention, the rate of change in the relative speed between an object in real space (hereinafter simply referred to as an object) corresponding to the image portion extracted by the object extracting means and the vehicle is equal to or less than a predetermined value. In this case, it can be determined that the object and the vehicle are moving in the same direction at the same speed, or that the distance between the object and the vehicle is very far. In this case, the possibility that the object and the vehicle are in contact with each other is low.
そこで、対象物と前記車両との相対速度の変化率が所定値以下である状態が前記判定時間以上継続したことを判定条件とすることによって、前記非監視対象除外手段により、前走車等の非監視対象物を精度良く判定して、監視対象から除外することができる。そして、非監視対象物を監視対象から除外することによって、歩行者等との接触可能性の判定に要する演算量を減少することができる。 Therefore, by setting the condition that the rate of change of the relative speed between the object and the vehicle is equal to or less than a predetermined value as the determination condition, the non-monitoring object excluding means can Non-monitoring objects can be accurately determined and excluded from monitoring objects. Then, by excluding the non-monitoring object from the monitoring object, it is possible to reduce the amount of calculation required for determining the possibility of contact with a pedestrian or the like.
また、本発明の第2の態様は、前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、前記撮像手段により間隔を置いて撮像された複数の時系列画像について、各画像から前記対象物抽出手段により抽出された画像部分が、実空間上の同一の対象物の画像部分であるか否かを判別する同一性判定手段と、前記時系列画像において、前記撮像手段により直近に撮像された画像と、その画像よりも前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在する状態が、所定の判定時間以上継続したときに、該画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする。 Further, in the second aspect of the present invention, the object extraction unit that extracts an image portion of the object in real space from the image captured by the imaging unit and the image capturing unit are captured at intervals. For a plurality of time-series images, identity determining means for determining whether image portions extracted from each image by the object extracting means are image portions of the same object in real space; In the series image, between the image most recently captured by the imaging unit and an image before the image, the identity determining unit determines that the image part is the same object in real space, and When a state in which an image portion whose size change rate is equal to or smaller than a predetermined value continues for a predetermined determination time or longer, an object in the real space corresponding to the image portion is excluded from being monitored. With monitoring exclusion means It is characterized in.
かかる本発明によれば、前記時系列画像において、直近に撮像された画像とその1つ前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在するときには、この画像部分に対応する実空間上の対象物(以下、単に対象物という)は、前記車両と同一の速度で同一の方向に移動しているか、或いは対象物と前記車両との距離が非常に離れていると判断することができる。そして、この場合には、対象物と前記車両が接触する可能性が低い。 According to the present invention, in the time-series image, it is determined that the image portion of the same object in the real space is between the most recently captured image and the previous image by the identity determination unit. In addition, when there is an image part whose size change rate is equal to or less than a predetermined value, an object in real space corresponding to the image part (hereinafter simply referred to as an object) has the same speed as the vehicle. Thus, it can be determined that they are moving in the same direction or that the distance between the object and the vehicle is very far. In this case, the possibility that the object and the vehicle are in contact with each other is low.
そこで、直近に撮像された画像とその1つ前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在する状態が、前記判定時間以上継続したことを判定条件とすることによって、前記非監視対象除外手段により、前走車等の非監視対象物を精度良く判定して、監視対象から除外することができる。そして、非監視対象物を監視対象から除外することによって、歩行者等との接触可能性の判定に要する演算量を減少することができる。 Therefore, between the most recently captured image and the previous image, it is determined by the identity determining means that the image portion is the same object in real space, and the rate of change in size is predetermined. By using the non-monitoring object exclusion means to accurately determine a non-monitoring object such as a preceding vehicle by setting a condition that an image portion that is less than or equal to the value continues for the determination time or longer. Can be excluded from monitoring. Then, by excluding the non-monitoring object from the monitoring object, it is possible to reduce the amount of calculation required for determining the possibility of contact with a pedestrian or the like.
また、前記第1の態様及び前記第2の態様において、前記判定時間を、前記車両の速度が速いほど短い時間に設定する判定時間設定手段を備えたことを特徴とする。 In the first aspect and the second aspect, there is provided determination time setting means for setting the determination time to a shorter time as the speed of the vehicle is higher.
かかる本発明によれば、前記車両の速度が速いほど、前記第1の態様における前記車両と対象物との相対速度の単位時間あたりの変化、及び前記第2の態様における画像部分の大きさの変化が生じ易くなる。そのため、前記判定時間設定手段により、前記車両の速度が速いほど前記判定時間を短く設定することによって、監視対象から除外する対象物を速やかに決定することができると共に、該決定に要する演算量を少なくすることができる。 According to the present invention, the higher the speed of the vehicle, the change in the relative speed between the vehicle and the object in the first aspect per unit time and the size of the image portion in the second aspect. Changes are likely to occur. Therefore, by setting the determination time to be shorter as the vehicle speed is faster by the determination time setting means, it is possible to quickly determine an object to be excluded from the monitoring target, and to calculate the amount of calculation required for the determination. Can be reduced.
また、前記第1の態様及び前記第2の態様において、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物の種別を判別する種別判別手段と、前記種別判別手段により判別された対象物の種別に応じて、前記判定時間を設定する判定時間設定手段とを備えたことを特徴とする。 Further, in the first aspect and the second aspect, the type determining means for determining the type of the object in the real space corresponding to the image portion extracted by the object extracting means, and the type determining means And a determination time setting means for setting the determination time according to the type of the determined object.
かかる本発明において、例えば、対象物の種別が太陽や遠方の山のように前記車両との距離が離れているものである場合には、前記第1の態様における前記車両と実空間上の対象物との相対速度の変化、及び前記第2の態様における対象物の画像部分の大きさの変化が小さくなる。そのため、この場合には、前記判定時間設定手段により、前記判定時間を短く設定することによって、監視対象から除外する対象物を速やかに決定することができると共に、該決定に要する演算量を少なくすることができる。 In the present invention, for example, when the type of the object is far away from the vehicle such as the sun or a distant mountain, the object in the first aspect and the object in real space The change in the relative speed with the object and the change in the size of the image portion of the object in the second aspect are reduced. Therefore, in this case, by setting the determination time short by the determination time setting means, it is possible to quickly determine the object to be excluded from the monitoring target and reduce the amount of calculation required for the determination. be able to.
一方、例えば、対象物の種別が他車両であって前記車両の前方を走行している場合は、前記第1の態様における前記車両と対象物との相対速度、及び前記第2の態様における対象物の画像部分の大きさが、対象物である他車両の挙動に応じて瞬間的に大きく変化することがある。そこで、この場合には、前記判定時間設定手段により前記判定時間を長く設定することによって、他車両を監視対象から除外するか否かの判断を安定して行うことができる。 On the other hand, for example, when the type of the object is another vehicle and traveling in front of the vehicle, the relative speed between the vehicle and the object in the first aspect and the object in the second aspect The size of the image portion of the object may change greatly instantaneously depending on the behavior of the other vehicle that is the object. Therefore, in this case, it is possible to stably determine whether or not to exclude other vehicles from the monitoring target by setting the determination time longer by the determination time setting means.
本発明の実施の形態について、図1〜5を参照して説明する。図1は本発明の車両周囲監視装置の構成図であり、本発明の車両周囲監視装置は画像処理ユニット1により構成されている。画像処理ユニット1には、遠赤外線を検出可能な赤外線カメラ2R,2L(本発明の撮像手段に相当する)、車両のヨーレートを検出するヨーレートセンサ3、車両の走行速度を検出する車速センサ4、運転者によるブレーキの操作量を検出するブレーキセンサ5、音声により注意喚起を行うためのスピーカ6、及び、赤外線カメラ2R,2Lにより得られた画像を表示すると共に、接触の可能性が高い対象物を運転者に視認させる表示を行うための表示装置7が接続されている。
Embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of a vehicle surroundings monitoring apparatus according to the present invention. The vehicle surroundings monitoring apparatus according to the present invention includes an image processing unit 1. The image processing unit 1 includes
図2を参照して、赤外線カメラ2R,2Lは、車両10の前部に、車両10の車幅方向の中心部に対してほぼ対象な位置に配置され、2台の赤外線カメラ2R,2Lの光軸を互いに平行とし、各赤外線カメラ2R,2Lの路面からの高さを等しくして固定されている。なお、赤外線カメラ2R,2Lは、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。また、表示装置7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。
Referring to FIG. 2,
また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2R,2Lから出力されるアナログの映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、該画像メモリに取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。
Referring to FIG. 1, an image processing unit 1 is an electronic unit composed of a microcomputer (not shown) and converts analog video signals output from
そして、該マイクロコンピュータに、車両監視用プログラムを実行させることによって、該マイクロコンピュータが、車両前方の画像から実空間上の対象物の画像部分を抽出する対象物抽出手段20、対象物抽出手段20により抽出された画像部分に対応する実空間上の対象物と車両10との相対速度を算出する相対速度算出手段21、異なる時点で撮像された画像間で、抽出された画像部分が同一の対象物のものであるか否かを判別する同一性判定手段22、画像部分に対応する実空間上の対象物の種別を判別する種別判別手段23、後述する非監視対象処理を実行する際の判定時間を設定する判定時間設定手段24、及び車両前方の画像から抽出された画像部分のうち、監視対象とならない対象物(非監視対象物)の画像部分を判別して除外する非監視対象除外手段25として機能する。
Then, by causing the microcomputer to execute a vehicle monitoring program, the microcomputer extracts the object portion of the object in real space from the image in front of the vehicle, the object extracting means 20, and the object extracting means 20. The relative speed calculation means 21 for calculating the relative speed between the object in the real space corresponding to the image part extracted by the
次に、図3に示したフローチャートに従って、画像処理ユニット1による対象物抽出処理、非監視対象判定処理、及び注意喚起処理について説明する。 Next, the object extraction process, the non-monitoring object determination process, and the alert process by the image processing unit 1 will be described according to the flowchart shown in FIG.
画像処理ユニット1は、先ずSTEP1で赤外線カメラ2R,2Lから出力される赤外線画像のアナログ信号を入力し、続くSTEP2で該アナログ信号をA/D変換によりデジタル化したグレースケール画像を画像メモリに格納する。
The image processing unit 1 first inputs an analog signal of an infrared image output from the
なお、STEP1〜STEP2では、赤外線カメラ2Rによるグレースケール画像(以下、右画像という)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という)とが取得される。そして、右画像と左画像では、同一の対象物の画像部分の水平位置にずれ(視差)が生じるため、この視差に基づいて実空間における車両10から該対象物までの距離を算出することができる。
In STEP1 to STEP2, a grayscale image (hereinafter referred to as a right image) obtained by the
続くSTEP3で、画像処理ユニット1は、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。次のSTEP4〜STEP6は、対象物抽出手段20による処理である。対象物抽出手段20は、STEP4で、2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。また、対象物抽出手段20は、STEP5で、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、STEP6で、ラベリングした画像部分を監視対象物の画像候補として抽出する。
In subsequent STEP 3, the image processing unit 1 binarizes the right image as a reference image (pixels with luminance equal to or higher than a threshold value are set to “1 (white)”, and pixels smaller than the threshold value are set to “0 (black)”. To generate a binary image. The next STEP 4 to STEP 6 are processes by the object extraction means 20. In STEP 4, the object extraction means 20 converts the image portion of each white area included in the binary image into run length data (data of white pixel lines continuous in the x (horizontal) direction of the binary image). Further, the
次のSTEP7で、画像処理ユニット1は、各画像候補の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、前掲した特開2003−230134号公報に詳説されているので、ここでは説明を省略する。そして、画像処理ユニット1は、続くSTEP8〜STEP9と、STEP20〜STEP22を平行して実行する。
In the next STEP 7, the image processing unit 1 calculates the gravity center G, area S, and circumscribing aspect ratio ASPECT of each image candidate. Note that a specific calculation method is described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2003-230134, and thus the description thereof is omitted here. Then, the image processing unit 1 executes the following STEP 8 to STEP 9 and
STEP8は同一性判定手段22による処理であり、同一性判定手段22は、所定のサンプリング周期毎に赤外線カメラ2R,2Lにより撮像された画像に基づく2値画像から抽出された画像部分について、同一性判定を行い、同一の対象物の画像であると判定された画像部分の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。また、STEP9で、画像処理ユニット1は、車速センサ4により検出される車速VCAR及びヨーレートセンサ3により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θrを算出する。
STEP 8 is a process performed by the
一方、STEP20において、画像処理ユニット1は、基準画像(右画像)の2値画像によって追跡される監視対象物の画像候補の中の一つを選択して、右画像のグレースケール画像から探索画像R1(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。続くSTEP21で、画像処理ユニット1は、左画像のグレースケール画像から探索画像R1に対応する画像(以下、対応画像R1’という)を探索する探索領域を設定し、探索画像R1との相間演算を実行して対応画像R1’を抽出する。そして、STEP22で、画像処理ユニット1は、探索画像R1の重心位置と対応画像R1’の重心位置との差を視差量Δd(画素数)として算出し、STEP10に進む。
On the other hand, in
STEP10で、画像処理ユニット1は、視差量Δdに基づいて車両10と対象物との距離zを算出し、探索画像の座標(x,y)と距離zを、実空間座標(X,Y,Z)に変換して、探索画像に対応する実空間位置の座標を算出する。なお、実空間座標(X,Y,Z)は、図2に示したように、赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方向に設定されている。また、画像座標は、画像の中心を原点とし、水平方向がx、垂直方向がyに設定されている。
In
続くSTEP12で、画像処理ユニット1は、図4に示したフローチャートに従って、STEP6で抽出された画像部分に対応する実空間上の対象物が非監視対象であるか否かを判別し、非監視対象であると判別したときには、監視対象から除外する「非監視対象判定処理」を実行する。 In subsequent STEP 12, the image processing unit 1 determines whether or not the object in the real space corresponding to the image portion extracted in STEP 6 is a non-monitoring target according to the flowchart shown in FIG. When it is determined that it is, the “non-monitoring target determination process” for excluding from the monitoring target is executed.
図4のSTEP50は種別判別手段23による処理であり、種別判別手段23はSTEP6で対象物の種別を判別する。具体的には、対象物の画像部分の大きさ、形状、輝度分布等を、予め設定した非監視対象物の種別の基準データと比較して、対象物の種別を判別する。非監視対象物の種別としては、例えば、太陽、山、他車両等が想定され、これらの種別を判別するための基準データがメモリ(図示しない)に保持されている。
STEP 50 in FIG. 4 is processing by the
続くSTEP51〜STEP52は判定時間設定手段24による処理であり、判定時間設定手段24は、STEP51で車両10の車速を車速センサ4により検出し、STEP52で、対象物の種別と車速に基づいて判定時間を設定する。ここで、車両10の車速が速いほど、車両10と対象物との相対速度の変化が検知し易く、また、対象物の種別が太陽や山のように、車両10から遠く離れた物であるときには、車両10と対象物との相対速度の変化がほとんど生じない。
Subsequent STEP 51 to STEP 52 are processes by the determination time setting means 24. The determination time setting means 24 detects the vehicle speed of the
そこで、判定時間設定手段24は、車両10の車速が速いほど判定時間Tdを短く設定し、また、対象物の種別から対象物が遠方に存在すると認識されたときには、判定時間を短く設定する。
Accordingly, the determination
続くSTEP53は相対速度算出手段21による処理であり、相対速度算出手段21は、図3のSTEP3の時刻間追跡により抽出した、同一性判定手段22により同一の対象物の画像部分であると判別された画像部分に対応する実空間上の対象物の位置の変化から、自車両10と対象物との相対速度を算出する。
The subsequent STEP 53 is a process by the relative speed calculating means 21, and the relative speed calculating means 21 is determined to be an image portion of the same object by the
次のSTEP54〜STEP55は、非監視対象除外手段25による処理である。非監視対象除外手段25は、STEP54で、自車両10と対象物との相対速度の変化率Rvを算出し、該変化率Rvが判定閾値Rv_th(本発明の所定値に相当する)以下である状態が判定時間Td以上継続しているか否かを判断する。
The next STEP 54 to STEP 55 are processes performed by the non-monitoring
ここで、自車両10と対象物との相対速度の変化率Rvが判定閾値Rv_th以下である状態が判定時間Td以上継続しているときには、例えば、対象物が自車両10の前方を同一速度で走行する他車両である場合や、対象物が太陽や山であって自車両10から遠く離れている場合のように、自車両10と対象物とが接近する可能性が低いと判断することができる。
Here, when the state in which the change rate Rv of the relative speed between the
そこで、STEP54で、自車両10と対象物との相対速度の変化率Rvが判定閾値Rv_th以下である状態が判定時間Td以上継続しているときには、STEP55に進み、非監視対象除外手段25は、対象物が非監視対象であると判定する。そして、STEP56に進んで「非監視対象判定処理」を終了する。一方、STEP54で、自車両10と対象物との相対速度の変化率Rv判定閾値Rv_th以下である状態が判定時間Td以上継続していないときにはSTEP56に分岐し、この場合は対象物が非監視対象であるとの判定は行わない。
Therefore, when the state in which the change rate Rv of the relative speed between the
図3のSTEP13で、非監視対象除外手段25は、「非監視対象判定処理」により対象物が非監視対象であると判定したときはSTEP1に分岐し、これにより対象物が監視対象から除外される。一方、「非監視対象判定処理」により対象物が非監視対象でないと判定したときにはSTEP14に進む。
In STEP 13 of FIG. 3, when the non-monitoring
STEP14〜STEP16及びSTEP30は、対象物が注意喚起の対象であるか否かを判定して、運転者に対する注意喚起を行うための処理である。画像処理ユニット1は、STEP14で、所定のモニタ期間内で撮像された複数の画像から得られた回頭角補正後の同一の対象物の実空間位置の時系列データから、対象物と車両10との相対的な移動ベクトルを算出する。
STEP14 to STEP16 and STEP30 are processes for determining whether or not an object is a target of alerting and alerting the driver. In STEP 14, the image processing unit 1 determines the target, the
なお、対象物の実空間座標(X,Y,Z)及び移動ベクトルの具体的な算出方法については、前掲した特開2003−230134号公報に詳説されているので、ここでは説明を省略する。 The specific calculation method of the real space coordinates (X, Y, Z) and the movement vector of the object is described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2003-230134, and the description thereof is omitted here.
次に、STEP15で、画像処理ユニット1は、車両10と対象物との接触可能性を判断して、注意喚起を行う必要があるか否かを判定する「注意喚起判定処理」を実行する。そして、「注意喚起判定処理」により、注意喚起を行う必要があると判定されたときは、STEP30に分岐してブザー6による注意喚起音の出力と、表示装置7への注意喚起表示を行う。一方、「注意喚起判定処理」により注意喚起を行う必要がないと判定されたときにはSTEP1に戻り、画像処理ユニット1は注意喚起を行わない。
Next, in STEP 15, the image processing unit 1 determines the possibility of contact between the
画像処理ユニット1は、「注意喚起判定処理」において、対象物が余裕時間内に自車両10と接触する可能性、対象物が自車両周囲に設定した接近判定領域内に存在するか否か、対象物が接近判定領域外から接近判定領域内に進入して自車両10と接触する可能性、対象物が歩行者であるか否か、対象物が人工構造物であるか否か、等を判定して、注意喚起を行う必要があるか否かを判定する。
In the “attention determination process”, the image processing unit 1 may check whether the target object is in contact with the
なお、「注意喚起判定処理」の具体的な処理内容については、前掲した特開2003−230134に「警報出力判定処理」として詳説されているので、ここでは説明を省略する。 Note that the specific processing content of the “attention determination process” is described in detail as “alarm output determination process” in the above-described Japanese Patent Application Laid-Open No. 2003-230134, and thus the description thereof is omitted here.
以上説明したように、STEP12〜STEP13により「非監視対象判定処理」を行って、非監視対象と判定した対象物をSTEP14〜STEP16による注意喚起の処理の対象から除外することにより、画像処理ユニット1における演算量を減少させて、自車両10の周囲を効率良く監視することができる。
As described above, the image processing unit 1 is performed by performing the “non-monitoring target determination process” in STEP 12 to STEP 13 and excluding the object determined as the non-monitoring target from the target of the alerting process in STEP 14 to STEP 16. It is possible to efficiently monitor the surroundings of the
次に、上述した実施形態では、2台の赤外線2R,2Lを備えて対象物の実空間位置を算出することにより、自車両10と対象物との相対速度に基づいて対象物が非監視対象であるか否かを判定したが、1台の赤外線カメラしか搭載されていない車両においては、以下の処理によって、非監視対象除外手段25は対象物が非監視対象であるか否かを判定することができる。
Next, in the above-described embodiment, the object is a non-monitoring object based on the relative speed between the
図5(a)は車載カメラによる自車両前方の画像であり、前走車の画像部分31と歩行者の画像32が含まれている。そして、図5(b)は図5(a)の状況を道路の上方から見た説明図であり、自車両41の前方を他車両42が走行し、自車両41の側方の歩道を歩行者43が歩いている。
FIG. 5A is an image in front of the host vehicle by an in-vehicle camera, and includes an
ここで、歩行者43の移動速度Vd1は自車両41の移動速度Vjよりも極めて低い(Vd1≪Vj)ため、歩行者43と自車両41間の相対速度をVjとみなすことができる。そして、自車両41と歩行者43との距離がZ1であれば、歩行者の画像部分32はT1=Z1/Vj以上、画像内に存在しないことになる。
Here, since the moving speed Vd1 of the
一方、自車両41と他車両42は、通常はほぼ同一の速度(Vj≒Vd2)で走行しているため、図5(a)に示したように、カメラにより撮像される画像30中に、他車両42の画像部分31がほぼ同じ大きさで存在する状態が継続する。これは、太陽や山のように自車両から遠方にある対象物についても同様である。
On the other hand, the
そこで、非監視対象除外手段25は、カメラにより撮像された時系列画像において、「直近の画像とその1つ前の画像間で、同一性判定手段22により同一の対象物の画像部分であると判定され、且つ、大きさの変化率が所定値以下である画像部分が抽出される状態が、判定時間設定手段24により設定された判定時間以上継続したとき」に、その対象物は非監視対象物(前走車、太陽、山等)であるとして、監視対象から除外することができる。 Therefore, the non-monitoring target exclusion means 25 is a time-series image captured by the camera, saying that “the same image between the latest image and the previous image is an image portion of the same object by the identity determination means 22. When the determination and the state in which the image portion whose size change rate is equal to or less than the predetermined value continues for the determination time set by the determination time setting means 24 ", the object is a non-monitoring target. It can be excluded from the monitoring target as being an object (previous vehicle, sun, mountain, etc.).
この場合には、1台のカメラのみを備えてレーダ等の測距手段も備えていないために、対象物との距離が算出できない車両や、映像解像度が低いカメラを搭載した車両においても、比較的単純な処理によって、歩行者等の監視対象と前走車等の非監視対象とを判別することができる。 In this case, since only one camera is provided and no distance measuring means such as a radar is provided, comparison is possible even with a vehicle in which the distance to the object cannot be calculated or a vehicle equipped with a camera with a low video resolution. Through simple processing, it is possible to discriminate between a monitoring target such as a pedestrian and a non-monitoring target such as a preceding vehicle.
なお、本実施の形態においては、車両前方を撮像する構成を示したが、車両の後方や側方等、他の方向を撮像して対象物との接触可能性を判断するようにしてもよい。 In the present embodiment, the configuration in which the front of the vehicle is imaged is shown. However, the possibility of contact with the object may be determined by imaging other directions such as the rear and side of the vehicle. .
また、本実施の形態においては、本発明の撮像手段として赤外線カメラ2R,2Lを用いたが、可視画像を撮像する可視カメラを用いてもよい。
Further, in the present embodiment, the
また、本実施の形態において、赤外線カメラ2Rの撮像画像と赤外線カメラ2Lの撮像画像の視差量に基いて自車両10と対象物との距離を算出したが、レーダー等による距離センサを用いて自車両10と対象物との距離を直接的に検知するようにしてもよい。
In the present embodiment, the distance between the
1…画像処理ユニット、2R,2L…赤外線カメラ(撮像手段)、3…ヨーレートセンサ、4…車速センサ、5…ブレーキセンサ、6…スピーカ、7…表示装置、20…対象物抽出手段、21…相対速度算出手段、22…同一性判定手段、23…種別判別手段、24…判定時間設定手段、25…非監視対象除外手段 DESCRIPTION OF SYMBOLS 1 ... Image processing unit, 2R, 2L ... Infrared camera (imaging means), 3 ... Yaw rate sensor, 4 ... Vehicle speed sensor, 5 ... Brake sensor, 6 ... Speaker, 7 ... Display apparatus, 20 ... Object extraction means, 21 ... Relative speed calculation means, 22 ... identity determination means, 23 ... type determination means, 24 ... determination time setting means, 25 ... non-monitoring object exclusion means
Claims (4)
前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、
前記相対速度算出手段により算出された相対速度の変化率が所定値以下である状態が、所定の判定時間以上継続したときに、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする車両周辺監視装置。 In a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle,
Object extraction means for extracting an image portion of the object in real space from the image captured by the imaging means;
A relative speed calculating means for calculating a relative speed between an object in real space corresponding to the image portion extracted by the object extracting means and the vehicle;
In a real space corresponding to the image portion extracted by the object extracting means when the rate of change of the relative speed calculated by the relative speed calculating means is not more than a predetermined value continues for a predetermined determination time or longer. A vehicle periphery monitoring apparatus comprising: a non-monitoring object exclusion unit that excludes the object from the monitoring object.
前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、
前記撮像手段により間隔を置いて撮像された複数の時系列画像について、各画像から前記対象物抽出手段により抽出された画像部分が、実空間上の同一の対象物の画像部分であるか否かを判別する同一性判定手段と、
前記時系列画像において、前記撮像手段により直近に撮像された画像と、その画像よりも前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在する状態が、所定の判定時間以上継続したときに、該画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする車両周辺監視装置。 In a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle,
Object extraction means for extracting an image portion of the object in real space from the image captured by the imaging means;
For a plurality of time-series images captured at intervals by the imaging unit, whether or not the image portions extracted by the object extraction unit from each image are image portions of the same object in real space Identity determining means for determining
In the time-series image, between the image most recently captured by the imaging unit and the image before the image, the identity determining unit determines that the image portion is the same object in real space. In addition, when a state in which an image portion whose size change rate is equal to or less than a predetermined value continues for a predetermined determination time or longer, an object in the real space corresponding to the image portion is excluded from the monitoring target. A vehicle periphery monitoring apparatus comprising: a non-monitoring object exclusion unit that performs
前記判定時間を、前記車両の速度が速いほど短い時間に設定する判定時間設定手段を備えたことを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 1 or claim 2,
A vehicle periphery monitoring device, comprising: a determination time setting means for setting the determination time to a shorter time as the speed of the vehicle is higher.
前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物の種別を判別する種別判別手段と、
前記種別判別手段により判別された対象物の種別に応じて、前記判定時間を設定する判定時間設定手段とを備えたことを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 1 or claim 2,
Type discriminating means for discriminating the type of the object in the real space corresponding to the image portion extracted by the object extracting means;
A vehicle periphery monitoring device comprising: a determination time setting unit that sets the determination time according to the type of the object determined by the type determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008261924A JP4864953B2 (en) | 2008-10-08 | 2008-10-08 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008261924A JP4864953B2 (en) | 2008-10-08 | 2008-10-08 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010093569A true JP2010093569A (en) | 2010-04-22 |
JP4864953B2 JP4864953B2 (en) | 2012-02-01 |
Family
ID=42255871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008261924A Expired - Fee Related JP4864953B2 (en) | 2008-10-08 | 2008-10-08 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4864953B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011143866A1 (en) * | 2010-05-18 | 2011-11-24 | 武汉高德红外股份有限公司 | Method for vehicle anticollision warning based on passive infrared vision |
GB2494526A (en) * | 2011-09-06 | 2013-03-13 | Land Rover Uk Ltd | Vehicle Speed Determination |
JP2013105419A (en) * | 2011-11-16 | 2013-05-30 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2016115259A (en) * | 2014-12-17 | 2016-06-23 | 日立建機株式会社 | Work machine and monitoring device of periphery of the same |
JP2018120303A (en) * | 2017-01-23 | 2018-08-02 | 株式会社Soken | Object detection device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05166097A (en) * | 1991-12-16 | 1993-07-02 | Stanley Electric Co Ltd | Alarm for rear-end collisions |
JP2002298298A (en) * | 2001-03-30 | 2002-10-11 | Honda Motor Co Ltd | Periphery monitoring device for vehicle |
JP2003016429A (en) * | 2001-06-28 | 2003-01-17 | Honda Motor Co Ltd | Vehicle periphery monitor device |
JP2007213561A (en) * | 2006-01-16 | 2007-08-23 | Honda Motor Co Ltd | Vehicle periphery supervisory unit |
-
2008
- 2008-10-08 JP JP2008261924A patent/JP4864953B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05166097A (en) * | 1991-12-16 | 1993-07-02 | Stanley Electric Co Ltd | Alarm for rear-end collisions |
JP2002298298A (en) * | 2001-03-30 | 2002-10-11 | Honda Motor Co Ltd | Periphery monitoring device for vehicle |
JP2003016429A (en) * | 2001-06-28 | 2003-01-17 | Honda Motor Co Ltd | Vehicle periphery monitor device |
JP2007213561A (en) * | 2006-01-16 | 2007-08-23 | Honda Motor Co Ltd | Vehicle periphery supervisory unit |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011143866A1 (en) * | 2010-05-18 | 2011-11-24 | 武汉高德红外股份有限公司 | Method for vehicle anticollision warning based on passive infrared vision |
GB2494526A (en) * | 2011-09-06 | 2013-03-13 | Land Rover Uk Ltd | Vehicle Speed Determination |
GB2494526B (en) * | 2011-09-06 | 2015-11-25 | Jaguar Land Rover Ltd | Improvements in vehicle speed determination |
JP2013105419A (en) * | 2011-11-16 | 2013-05-30 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2016115259A (en) * | 2014-12-17 | 2016-06-23 | 日立建機株式会社 | Work machine and monitoring device of periphery of the same |
JP2018120303A (en) * | 2017-01-23 | 2018-08-02 | 株式会社Soken | Object detection device |
Also Published As
Publication number | Publication date |
---|---|
JP4864953B2 (en) | 2012-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4733756B2 (en) | Vehicle periphery monitoring device | |
JP4631096B2 (en) | Vehicle periphery monitoring device | |
JP4815488B2 (en) | Vehicle periphery monitoring device | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
JP4426535B2 (en) | Vehicle periphery monitoring device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
US7436982B2 (en) | Vehicle surroundings monitoring apparatus | |
US8766816B2 (en) | System for monitoring the area around a vehicle | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP4410292B1 (en) | Vehicle periphery monitoring device | |
JP5774770B2 (en) | Vehicle periphery monitoring device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP2005354597A (en) | Vehicle vicinity monitoring apparatus | |
US20150169980A1 (en) | Object recognition device | |
JP4864953B2 (en) | Vehicle periphery monitoring device | |
JP5004923B2 (en) | Vehicle driving support device | |
JP6087240B2 (en) | Vehicle periphery monitoring device | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP2004106682A (en) | Obstacle detection device | |
JP4176558B2 (en) | Vehicle periphery display device | |
JP5399887B2 (en) | Vehicle periphery monitoring device | |
JP4975776B2 (en) | Vehicle periphery monitoring device | |
JP5430633B2 (en) | Vehicle periphery monitoring device | |
JP6362945B2 (en) | In-vehicle image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111101 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111109 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141118 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4864953 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |