JP2010093569A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2010093569A
JP2010093569A JP2008261924A JP2008261924A JP2010093569A JP 2010093569 A JP2010093569 A JP 2010093569A JP 2008261924 A JP2008261924 A JP 2008261924A JP 2008261924 A JP2008261924 A JP 2008261924A JP 2010093569 A JP2010093569 A JP 2010093569A
Authority
JP
Japan
Prior art keywords
vehicle
image
real space
image portion
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008261924A
Other languages
Japanese (ja)
Other versions
JP4864953B2 (en
Inventor
Shinji Nagaoka
伸治 長岡
Makoto Aimura
誠 相村
Yukihiro Matsuda
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008261924A priority Critical patent/JP4864953B2/en
Publication of JP2010093569A publication Critical patent/JP2010093569A/en
Application granted granted Critical
Publication of JP4864953B2 publication Critical patent/JP4864953B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring device capable of precisely discriminating an image portion of a vehicle traveling ahead or the like from an image captured by an imaging means mounted on a vehicle to exclude the image portion from objects to be monitored. <P>SOLUTION: The vehicle periphery monitoring device monitors the periphery of a vehicle, based on an image captured by infrared cameras 2R, 2L mounted on the vehicle. The vehicle periphery monitoring device includes: an object extraction means 20 for extracting the image portion of an object on a real space from the image captured by the infrared cameras 2R, 2L; a relative speed calculation means 21 for calculating the relative speed between the object on the real space corresponding to the image portion extracted by the object extraction means 20 and an own vehicle; and a non-monitored object exclusion means 25 for excluding the object on the real space corresponding to the image portion extracted by the object extraction means 20 from the object to be monitored when a state, where a rate of change per unit time of the relative speed calculated by the relative speed calculation means 21 is not more than a prescribed value, continues for not less than determination time. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description


本発明は、車両に搭載された撮像手段により撮像された画像に基づいて、前記車両の周辺を監視する車両周辺監視装置に関する。

The present invention relates to a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle.

従来より、車載カメラにより撮像した自車両の周辺の画像から車両の周辺に存在する歩行者を検出して、自車両と歩行者との接触可能性を判断し、接触可能性が高いときには運転者に警報をするようにした車両周辺監視装置が提案されている。   Conventionally, a pedestrian existing in the vicinity of a vehicle is detected from an image around the vehicle captured by an in-vehicle camera, and the possibility of contact between the vehicle and the pedestrian is determined. When the possibility of contact is high, the driver There has been proposed a vehicle periphery monitoring device that alerts the vehicle.

そして、車載カメラにより撮像した画像に他車両の画像部分が含まれていると、例えば、他車両のヘッドライトの画像部分を歩行者の頭部の画像部分と誤って認識する等、歩行者の検出の妨げとなる場合がある。そこで、撮像した画像に含まれる他車両の画像部分を判別して、この画像部分を監視対象から除外するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。   And when the image portion of the other vehicle is included in the image captured by the in-vehicle camera, for example, the image portion of the headlight of the other vehicle is erroneously recognized as the image portion of the pedestrian's head, etc. May interfere with detection. Therefore, a vehicle periphery monitoring device has been proposed in which an image portion of another vehicle included in the captured image is discriminated and this image portion is excluded from the monitoring target (see, for example, Patent Document 1).

特許文献1に記載された車両周辺監視装置によれば、車載カメラにより撮像された画像から、他車両の画像部分を除外することにより、歩行者の画像部分を抽出し易くしている。   According to the vehicle periphery monitoring device described in Patent Literature 1, it is easy to extract a pedestrian's image portion by excluding an image portion of another vehicle from an image captured by an in-vehicle camera.

しかし、特許文献1に記載された車両周辺監視装置では、他車両のヘッドランプを想定した高輝度の画像部分について、その周囲の対応する実空間上の位置までの距離が同一である画像部分を求め、両画像部分の輝度差や位置関係を求めて、他車両の画像部分であるか否かを判断している。   However, in the vehicle periphery monitoring device described in Patent Document 1, an image portion having the same distance to a corresponding real space position around the high-luminance image portion assuming a headlamp of another vehicle is used. The luminance difference and the positional relationship between the two image portions are obtained, and it is determined whether or not it is an image portion of another vehicle.

そのため、実空間上の対象物との距離が長くなって、該対象物までの距離の検出精度が悪化すると、該対象物が車両であるか否かを精度良く判別することが難しくなり、車両の画像部分を誤って歩行者と判定するおそれがある。
特開2003−230134号公報
Therefore, when the distance to the object in the real space becomes long and the detection accuracy of the distance to the object deteriorates, it becomes difficult to accurately determine whether the object is a vehicle. There is a risk of erroneously determining the image portion as a pedestrian.
JP 2003-230134 A

本発明は上記背景を鑑みてなされたものであり、車両に搭載された撮像手段により撮像された画像から前走車両等の画像部分を精度良く判別して、監視対象から除外することができる車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of the above-described background, and can accurately discriminate an image portion such as a preceding vehicle from an image captured by an imaging unit mounted on the vehicle and exclude it from a monitoring target. An object is to provide a peripheral monitoring device.

本発明は上記目的を達成するためになされたものであり、車両に搭載された撮像手段により撮像された画像に基づいて、前記車両の周辺を監視する車両周辺監視装置の改良に関する。   The present invention has been made in order to achieve the above object, and relates to an improvement in a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle.

そして、本発明の第1の態様は、前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、前記相対速度算出手段により算出された相対速度の変化率が所定値以下である状態が、所定の判定時間以上継続したときに、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする。   And the 1st aspect of this invention is the object extraction means which extracts the image part of the target object in real space from the image imaged by the said imaging means, The image part extracted by the said object extraction means A state in which the relative speed calculation means for calculating the relative speed between the object in the real space corresponding to the vehicle and the vehicle, and the rate of change of the relative speed calculated by the relative speed calculation means is equal to or less than a predetermined value. And non-monitoring object exclusion means for excluding from the monitoring object the object in the real space corresponding to the image portion extracted by the object extraction means when the determination time continues for more than .

かかる本発明によれば、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物(以下、単に対象物という)と、前記車両との相対速度の変化率が所定値以下である場合には、対象物と前記車両とが同一の速度で同一の方向に移動しているか、或いは対象物と前記車両との距離が非常に離れていると判断することができる。そして、この場合には、対象物と前記車両が接触する可能性が低い。   According to the present invention, the rate of change in the relative speed between an object in real space (hereinafter simply referred to as an object) corresponding to the image portion extracted by the object extracting means and the vehicle is equal to or less than a predetermined value. In this case, it can be determined that the object and the vehicle are moving in the same direction at the same speed, or that the distance between the object and the vehicle is very far. In this case, the possibility that the object and the vehicle are in contact with each other is low.

そこで、対象物と前記車両との相対速度の変化率が所定値以下である状態が前記判定時間以上継続したことを判定条件とすることによって、前記非監視対象除外手段により、前走車等の非監視対象物を精度良く判定して、監視対象から除外することができる。そして、非監視対象物を監視対象から除外することによって、歩行者等との接触可能性の判定に要する演算量を減少することができる。   Therefore, by setting the condition that the rate of change of the relative speed between the object and the vehicle is equal to or less than a predetermined value as the determination condition, the non-monitoring object excluding means can Non-monitoring objects can be accurately determined and excluded from monitoring objects. Then, by excluding the non-monitoring object from the monitoring object, it is possible to reduce the amount of calculation required for determining the possibility of contact with a pedestrian or the like.

また、本発明の第2の態様は、前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、前記撮像手段により間隔を置いて撮像された複数の時系列画像について、各画像から前記対象物抽出手段により抽出された画像部分が、実空間上の同一の対象物の画像部分であるか否かを判別する同一性判定手段と、前記時系列画像において、前記撮像手段により直近に撮像された画像と、その画像よりも前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在する状態が、所定の判定時間以上継続したときに、該画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする。   Further, in the second aspect of the present invention, the object extraction unit that extracts an image portion of the object in real space from the image captured by the imaging unit and the image capturing unit are captured at intervals. For a plurality of time-series images, identity determining means for determining whether image portions extracted from each image by the object extracting means are image portions of the same object in real space; In the series image, between the image most recently captured by the imaging unit and an image before the image, the identity determining unit determines that the image part is the same object in real space, and When a state in which an image portion whose size change rate is equal to or smaller than a predetermined value continues for a predetermined determination time or longer, an object in the real space corresponding to the image portion is excluded from being monitored. With monitoring exclusion means It is characterized in.

かかる本発明によれば、前記時系列画像において、直近に撮像された画像とその1つ前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在するときには、この画像部分に対応する実空間上の対象物(以下、単に対象物という)は、前記車両と同一の速度で同一の方向に移動しているか、或いは対象物と前記車両との距離が非常に離れていると判断することができる。そして、この場合には、対象物と前記車両が接触する可能性が低い。   According to the present invention, in the time-series image, it is determined that the image portion of the same object in the real space is between the most recently captured image and the previous image by the identity determination unit. In addition, when there is an image part whose size change rate is equal to or less than a predetermined value, an object in real space corresponding to the image part (hereinafter simply referred to as an object) has the same speed as the vehicle. Thus, it can be determined that they are moving in the same direction or that the distance between the object and the vehicle is very far. In this case, the possibility that the object and the vehicle are in contact with each other is low.

そこで、直近に撮像された画像とその1つ前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在する状態が、前記判定時間以上継続したことを判定条件とすることによって、前記非監視対象除外手段により、前走車等の非監視対象物を精度良く判定して、監視対象から除外することができる。そして、非監視対象物を監視対象から除外することによって、歩行者等との接触可能性の判定に要する演算量を減少することができる。   Therefore, between the most recently captured image and the previous image, it is determined by the identity determining means that the image portion is the same object in real space, and the rate of change in size is predetermined. By using the non-monitoring object exclusion means to accurately determine a non-monitoring object such as a preceding vehicle by setting a condition that an image portion that is less than or equal to the value continues for the determination time or longer. Can be excluded from monitoring. Then, by excluding the non-monitoring object from the monitoring object, it is possible to reduce the amount of calculation required for determining the possibility of contact with a pedestrian or the like.

また、前記第1の態様及び前記第2の態様において、前記判定時間を、前記車両の速度が速いほど短い時間に設定する判定時間設定手段を備えたことを特徴とする。   In the first aspect and the second aspect, there is provided determination time setting means for setting the determination time to a shorter time as the speed of the vehicle is higher.

かかる本発明によれば、前記車両の速度が速いほど、前記第1の態様における前記車両と対象物との相対速度の単位時間あたりの変化、及び前記第2の態様における画像部分の大きさの変化が生じ易くなる。そのため、前記判定時間設定手段により、前記車両の速度が速いほど前記判定時間を短く設定することによって、監視対象から除外する対象物を速やかに決定することができると共に、該決定に要する演算量を少なくすることができる。   According to the present invention, the higher the speed of the vehicle, the change in the relative speed between the vehicle and the object in the first aspect per unit time and the size of the image portion in the second aspect. Changes are likely to occur. Therefore, by setting the determination time to be shorter as the vehicle speed is faster by the determination time setting means, it is possible to quickly determine an object to be excluded from the monitoring target, and to calculate the amount of calculation required for the determination. Can be reduced.

また、前記第1の態様及び前記第2の態様において、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物の種別を判別する種別判別手段と、前記種別判別手段により判別された対象物の種別に応じて、前記判定時間を設定する判定時間設定手段とを備えたことを特徴とする。   Further, in the first aspect and the second aspect, the type determining means for determining the type of the object in the real space corresponding to the image portion extracted by the object extracting means, and the type determining means And a determination time setting means for setting the determination time according to the type of the determined object.

かかる本発明において、例えば、対象物の種別が太陽や遠方の山のように前記車両との距離が離れているものである場合には、前記第1の態様における前記車両と実空間上の対象物との相対速度の変化、及び前記第2の態様における対象物の画像部分の大きさの変化が小さくなる。そのため、この場合には、前記判定時間設定手段により、前記判定時間を短く設定することによって、監視対象から除外する対象物を速やかに決定することができると共に、該決定に要する演算量を少なくすることができる。   In the present invention, for example, when the type of the object is far away from the vehicle such as the sun or a distant mountain, the object in the first aspect and the object in real space The change in the relative speed with the object and the change in the size of the image portion of the object in the second aspect are reduced. Therefore, in this case, by setting the determination time short by the determination time setting means, it is possible to quickly determine the object to be excluded from the monitoring target and reduce the amount of calculation required for the determination. be able to.

一方、例えば、対象物の種別が他車両であって前記車両の前方を走行している場合は、前記第1の態様における前記車両と対象物との相対速度、及び前記第2の態様における対象物の画像部分の大きさが、対象物である他車両の挙動に応じて瞬間的に大きく変化することがある。そこで、この場合には、前記判定時間設定手段により前記判定時間を長く設定することによって、他車両を監視対象から除外するか否かの判断を安定して行うことができる。   On the other hand, for example, when the type of the object is another vehicle and traveling in front of the vehicle, the relative speed between the vehicle and the object in the first aspect and the object in the second aspect The size of the image portion of the object may change greatly instantaneously depending on the behavior of the other vehicle that is the object. Therefore, in this case, it is possible to stably determine whether or not to exclude other vehicles from the monitoring target by setting the determination time longer by the determination time setting means.

本発明の実施の形態について、図1〜5を参照して説明する。図1は本発明の車両周囲監視装置の構成図であり、本発明の車両周囲監視装置は画像処理ユニット1により構成されている。画像処理ユニット1には、遠赤外線を検出可能な赤外線カメラ2R,2L(本発明の撮像手段に相当する)、車両のヨーレートを検出するヨーレートセンサ3、車両の走行速度を検出する車速センサ4、運転者によるブレーキの操作量を検出するブレーキセンサ5、音声により注意喚起を行うためのスピーカ6、及び、赤外線カメラ2R,2Lにより得られた画像を表示すると共に、接触の可能性が高い対象物を運転者に視認させる表示を行うための表示装置7が接続されている。   Embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of a vehicle surroundings monitoring apparatus according to the present invention. The vehicle surroundings monitoring apparatus according to the present invention includes an image processing unit 1. The image processing unit 1 includes infrared cameras 2R and 2L (corresponding to the imaging means of the present invention) that can detect far infrared rays, a yaw rate sensor 3 that detects the yaw rate of the vehicle, a vehicle speed sensor 4 that detects the traveling speed of the vehicle, A brake sensor 5 for detecting the amount of brake operation by the driver, a speaker 6 for alerting by voice, and an image obtained by the infrared cameras 2R and 2L, and an object having a high possibility of contact Is connected to a display device 7 for performing display for the driver.

図2を参照して、赤外線カメラ2R,2Lは、車両10の前部に、車両10の車幅方向の中心部に対してほぼ対象な位置に配置され、2台の赤外線カメラ2R,2Lの光軸を互いに平行とし、各赤外線カメラ2R,2Lの路面からの高さを等しくして固定されている。なお、赤外線カメラ2R,2Lは、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。また、表示装置7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。   Referring to FIG. 2, infrared cameras 2R and 2L are disposed at the front portion of vehicle 10 at a substantially target position with respect to the center portion of vehicle 10 in the vehicle width direction, and two infrared cameras 2R and 2L are arranged. The optical axes are parallel to each other, and the infrared cameras 2R and 2L are fixed at the same height from the road surface. The infrared cameras 2R and 2L have a characteristic that the output level increases (the luminance increases) as the temperature of the imaged object increases. Further, the display device 7 is provided so that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 10.

また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2R,2Lから出力されるアナログの映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、該画像メモリに取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。   Referring to FIG. 1, an image processing unit 1 is an electronic unit composed of a microcomputer (not shown) and converts analog video signals output from infrared cameras 2R and 2L into digital data. The microcomputer has a function of performing various arithmetic processes by the microcomputer with respect to the image in front of the vehicle captured in the image memory (not shown).

そして、該マイクロコンピュータに、車両監視用プログラムを実行させることによって、該マイクロコンピュータが、車両前方の画像から実空間上の対象物の画像部分を抽出する対象物抽出手段20、対象物抽出手段20により抽出された画像部分に対応する実空間上の対象物と車両10との相対速度を算出する相対速度算出手段21、異なる時点で撮像された画像間で、抽出された画像部分が同一の対象物のものであるか否かを判別する同一性判定手段22、画像部分に対応する実空間上の対象物の種別を判別する種別判別手段23、後述する非監視対象処理を実行する際の判定時間を設定する判定時間設定手段24、及び車両前方の画像から抽出された画像部分のうち、監視対象とならない対象物(非監視対象物)の画像部分を判別して除外する非監視対象除外手段25として機能する。   Then, by causing the microcomputer to execute a vehicle monitoring program, the microcomputer extracts the object portion of the object in real space from the image in front of the vehicle, the object extracting means 20, and the object extracting means 20. The relative speed calculation means 21 for calculating the relative speed between the object in the real space corresponding to the image part extracted by the vehicle 10 and the vehicle 10, and the extracted image part is the same object between the images taken at different time points. Identity determining means 22 for determining whether the object is a thing, type determining means 23 for determining the type of an object in the real space corresponding to the image portion, determination when executing a non-monitoring target process to be described later The determination time setting means 24 for setting the time and the image portion of the object (non-monitoring object) that is not the monitoring target among the image portions extracted from the image ahead of the vehicle is determined. Functioning as a non-monitored excluding means 25 for external.

次に、図3に示したフローチャートに従って、画像処理ユニット1による対象物抽出処理、非監視対象判定処理、及び注意喚起処理について説明する。   Next, the object extraction process, the non-monitoring object determination process, and the alert process by the image processing unit 1 will be described according to the flowchart shown in FIG.

画像処理ユニット1は、先ずSTEP1で赤外線カメラ2R,2Lから出力される赤外線画像のアナログ信号を入力し、続くSTEP2で該アナログ信号をA/D変換によりデジタル化したグレースケール画像を画像メモリに格納する。   The image processing unit 1 first inputs an analog signal of an infrared image output from the infrared cameras 2R and 2L in STEP1, and then stores a grayscale image obtained by digitizing the analog signal by A / D conversion in an image memory in STEP2. To do.

なお、STEP1〜STEP2では、赤外線カメラ2Rによるグレースケール画像(以下、右画像という)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という)とが取得される。そして、右画像と左画像では、同一の対象物の画像部分の水平位置にずれ(視差)が生じるため、この視差に基づいて実空間における車両10から該対象物までの距離を算出することができる。   In STEP1 to STEP2, a grayscale image (hereinafter referred to as a right image) obtained by the infrared camera 2R and a grayscale image (hereinafter referred to as a left image) obtained by the infrared camera 2L are acquired. Since the right image and the left image have a shift (parallax) in the horizontal position of the image portion of the same object, the distance from the vehicle 10 to the object in real space can be calculated based on this parallax. it can.

続くSTEP3で、画像処理ユニット1は、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。次のSTEP4〜STEP6は、対象物抽出手段20による処理である。対象物抽出手段20は、STEP4で、2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。また、対象物抽出手段20は、STEP5で、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、STEP6で、ラベリングした画像部分を監視対象物の画像候補として抽出する。   In subsequent STEP 3, the image processing unit 1 binarizes the right image as a reference image (pixels with luminance equal to or higher than a threshold value are set to “1 (white)”, and pixels smaller than the threshold value are set to “0 (black)”. To generate a binary image. The next STEP 4 to STEP 6 are processes by the object extraction means 20. In STEP 4, the object extraction means 20 converts the image portion of each white area included in the binary image into run length data (data of white pixel lines continuous in the x (horizontal) direction of the binary image). Further, the object extraction unit 20 labels a line having a portion overlapping in the y (vertical) direction of the binary image as one image part in STEP 5, and in STEP 6, the labeled image part is an image candidate of the monitoring object. Extract as

次のSTEP7で、画像処理ユニット1は、各画像候補の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、前掲した特開2003−230134号公報に詳説されているので、ここでは説明を省略する。そして、画像処理ユニット1は、続くSTEP8〜STEP9と、STEP20〜STEP22を平行して実行する。   In the next STEP 7, the image processing unit 1 calculates the gravity center G, area S, and circumscribing aspect ratio ASPECT of each image candidate. Note that a specific calculation method is described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2003-230134, and thus the description thereof is omitted here. Then, the image processing unit 1 executes the following STEP 8 to STEP 9 and STEP 20 to STEP 22 in parallel.

STEP8は同一性判定手段22による処理であり、同一性判定手段22は、所定のサンプリング周期毎に赤外線カメラ2R,2Lにより撮像された画像に基づく2値画像から抽出された画像部分について、同一性判定を行い、同一の対象物の画像であると判定された画像部分の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。また、STEP9で、画像処理ユニット1は、車速センサ4により検出される車速VCAR及びヨーレートセンサ3により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θrを算出する。   STEP 8 is a process performed by the identity determination unit 22, and the identity determination unit 22 determines the identity of the image portion extracted from the binary image based on the image captured by the infrared cameras 2 R and 2 L at every predetermined sampling period. The time series data of the position (center of gravity position) of the image portion determined to be the same object image is stored in the memory (time tracking). In STEP 9, the image processing unit 1 reads the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3, and calculates the turning angle θr of the vehicle 10 by time integration of the yaw rate YR. To do.

一方、STEP20において、画像処理ユニット1は、基準画像(右画像)の2値画像によって追跡される監視対象物の画像候補の中の一つを選択して、右画像のグレースケール画像から探索画像R1(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。続くSTEP21で、画像処理ユニット1は、左画像のグレースケール画像から探索画像R1に対応する画像(以下、対応画像R1’という)を探索する探索領域を設定し、探索画像R1との相間演算を実行して対応画像R1’を抽出する。そして、STEP22で、画像処理ユニット1は、探索画像R1の重心位置と対応画像R1’の重心位置との差を視差量Δd(画素数)として算出し、STEP10に進む。   On the other hand, in STEP 20, the image processing unit 1 selects one of the image candidates of the monitoring target tracked by the binary image of the reference image (right image), and searches from the grayscale image of the right image. R1 (an image of the entire region surrounded by a circumscribed rectangle of the selected candidate image) is extracted. In subsequent STEP 21, the image processing unit 1 sets a search area for searching for an image corresponding to the search image R1 (hereinafter referred to as the corresponding image R1 ′) from the grayscale image of the left image, and performs an inter-phase calculation with the search image R1. The corresponding image R1 ′ is extracted by executing. In STEP 22, the image processing unit 1 calculates the difference between the centroid position of the search image R 1 and the centroid position of the corresponding image R 1 ′ as a parallax amount Δd (number of pixels), and proceeds to STEP 10.

STEP10で、画像処理ユニット1は、視差量Δdに基づいて車両10と対象物との距離zを算出し、探索画像の座標(x,y)と距離zを、実空間座標(X,Y,Z)に変換して、探索画像に対応する実空間位置の座標を算出する。なお、実空間座標(X,Y,Z)は、図2に示したように、赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方向に設定されている。また、画像座標は、画像の中心を原点とし、水平方向がx、垂直方向がyに設定されている。   In STEP 10, the image processing unit 1 calculates the distance z between the vehicle 10 and the object based on the parallax amount Δd, and calculates the coordinates (x, y) and the distance z of the search image as real space coordinates (X, Y, Z) to calculate the coordinates of the real space position corresponding to the search image. As shown in FIG. 2, the real space coordinates (X, Y, Z) are set such that the midpoint position of the attachment positions of the infrared cameras 2R, 2L is the origin 0, X is the vehicle width direction of the vehicle 10, and Y Is set in the vertical direction, and Z is set in the front direction of the vehicle 10. The image coordinates are set such that the center of the image is the origin, the horizontal direction is x, and the vertical direction is y.

続くSTEP12で、画像処理ユニット1は、図4に示したフローチャートに従って、STEP6で抽出された画像部分に対応する実空間上の対象物が非監視対象であるか否かを判別し、非監視対象であると判別したときには、監視対象から除外する「非監視対象判定処理」を実行する。   In subsequent STEP 12, the image processing unit 1 determines whether or not the object in the real space corresponding to the image portion extracted in STEP 6 is a non-monitoring target according to the flowchart shown in FIG. When it is determined that it is, the “non-monitoring target determination process” for excluding from the monitoring target is executed.

図4のSTEP50は種別判別手段23による処理であり、種別判別手段23はSTEP6で対象物の種別を判別する。具体的には、対象物の画像部分の大きさ、形状、輝度分布等を、予め設定した非監視対象物の種別の基準データと比較して、対象物の種別を判別する。非監視対象物の種別としては、例えば、太陽、山、他車両等が想定され、これらの種別を判別するための基準データがメモリ(図示しない)に保持されている。   STEP 50 in FIG. 4 is processing by the type discriminating means 23, and the type discriminating means 23 discriminates the type of the object in STEP 6. Specifically, the size of the image portion of the target object, the shape, the luminance distribution, and the like are compared with preset reference data for the type of the non-monitoring target object to determine the type of the target object. As the types of non-monitoring objects, for example, the sun, mountains, other vehicles, and the like are assumed, and reference data for discriminating these types is held in a memory (not shown).

続くSTEP51〜STEP52は判定時間設定手段24による処理であり、判定時間設定手段24は、STEP51で車両10の車速を車速センサ4により検出し、STEP52で、対象物の種別と車速に基づいて判定時間を設定する。ここで、車両10の車速が速いほど、車両10と対象物との相対速度の変化が検知し易く、また、対象物の種別が太陽や山のように、車両10から遠く離れた物であるときには、車両10と対象物との相対速度の変化がほとんど生じない。   Subsequent STEP 51 to STEP 52 are processes by the determination time setting means 24. The determination time setting means 24 detects the vehicle speed of the vehicle 10 at STEP 51 by the vehicle speed sensor 4, and at STEP 52, the determination time based on the type of the object and the vehicle speed. Set. Here, as the vehicle speed of the vehicle 10 increases, it is easier to detect a change in the relative speed between the vehicle 10 and the object, and the type of the object is farther from the vehicle 10 such as the sun or a mountain. Sometimes, the relative speed between the vehicle 10 and the object hardly changes.

そこで、判定時間設定手段24は、車両10の車速が速いほど判定時間Tdを短く設定し、また、対象物の種別から対象物が遠方に存在すると認識されたときには、判定時間を短く設定する。   Accordingly, the determination time setting unit 24 sets the determination time Td to be shorter as the vehicle speed of the vehicle 10 is faster, and sets the determination time to be shorter when it is recognized that the object exists far away from the type of the object.

続くSTEP53は相対速度算出手段21による処理であり、相対速度算出手段21は、図3のSTEP3の時刻間追跡により抽出した、同一性判定手段22により同一の対象物の画像部分であると判別された画像部分に対応する実空間上の対象物の位置の変化から、自車両10と対象物との相対速度を算出する。   The subsequent STEP 53 is a process by the relative speed calculating means 21, and the relative speed calculating means 21 is determined to be an image portion of the same object by the identity determining means 22 extracted by tracking in STEP 3 of FIG. The relative speed between the host vehicle 10 and the object is calculated from the change in the position of the object in the real space corresponding to the image portion.

次のSTEP54〜STEP55は、非監視対象除外手段25による処理である。非監視対象除外手段25は、STEP54で、自車両10と対象物との相対速度の変化率Rvを算出し、該変化率Rvが判定閾値Rv_th(本発明の所定値に相当する)以下である状態が判定時間Td以上継続しているか否かを判断する。   The next STEP 54 to STEP 55 are processes performed by the non-monitoring object exclusion unit 25. The non-monitoring object exclusion means 25 calculates the change rate Rv of the relative speed between the host vehicle 10 and the object in STEP 54, and the change rate Rv is equal to or less than the determination threshold value Rv_th (corresponding to the predetermined value of the present invention). It is determined whether or not the state continues for a determination time Td or longer.

ここで、自車両10と対象物との相対速度の変化率Rvが判定閾値Rv_th以下である状態が判定時間Td以上継続しているときには、例えば、対象物が自車両10の前方を同一速度で走行する他車両である場合や、対象物が太陽や山であって自車両10から遠く離れている場合のように、自車両10と対象物とが接近する可能性が低いと判断することができる。   Here, when the state in which the change rate Rv of the relative speed between the host vehicle 10 and the target object is equal to or less than the determination threshold value Rv_th continues for the determination time Td or longer, for example, the target object travels in front of the host vehicle 10 at the same speed. It may be determined that there is a low possibility that the host vehicle 10 and the target object are close to each other as in the case of another vehicle that travels or when the target object is the sun or a mountain and is far from the host vehicle 10. it can.

そこで、STEP54で、自車両10と対象物との相対速度の変化率Rvが判定閾値Rv_th以下である状態が判定時間Td以上継続しているときには、STEP55に進み、非監視対象除外手段25は、対象物が非監視対象であると判定する。そして、STEP56に進んで「非監視対象判定処理」を終了する。一方、STEP54で、自車両10と対象物との相対速度の変化率Rv判定閾値Rv_th以下である状態が判定時間Td以上継続していないときにはSTEP56に分岐し、この場合は対象物が非監視対象であるとの判定は行わない。   Therefore, when the state in which the change rate Rv of the relative speed between the host vehicle 10 and the target object is equal to or less than the determination threshold value Rv_th continues in STEP54 for the determination time Td or longer, the process proceeds to STEP55, and the non-monitoring object exclusion means 25 It is determined that the object is a non-monitoring target. Then, the process proceeds to STEP 56 and the “non-monitoring object determination process” is ended. On the other hand, when the state in which the relative speed change rate Rv determination threshold value Rv_th is not longer than the determination time Td is not continued for more than the determination time Td in STEP54, the process branches to STEP56. It is not determined that

図3のSTEP13で、非監視対象除外手段25は、「非監視対象判定処理」により対象物が非監視対象であると判定したときはSTEP1に分岐し、これにより対象物が監視対象から除外される。一方、「非監視対象判定処理」により対象物が非監視対象でないと判定したときにはSTEP14に進む。   In STEP 13 of FIG. 3, when the non-monitoring target exclusion unit 25 determines that the target object is a non-monitoring target by the “non-monitoring target determination process”, the process branches to STEP 1, thereby excluding the target object from the monitoring target. The On the other hand, when it is determined by the “non-monitoring object determination process” that the object is not a non-monitoring object, the process proceeds to STEP14.

STEP14〜STEP16及びSTEP30は、対象物が注意喚起の対象であるか否かを判定して、運転者に対する注意喚起を行うための処理である。画像処理ユニット1は、STEP14で、所定のモニタ期間内で撮像された複数の画像から得られた回頭角補正後の同一の対象物の実空間位置の時系列データから、対象物と車両10との相対的な移動ベクトルを算出する。   STEP14 to STEP16 and STEP30 are processes for determining whether or not an object is a target of alerting and alerting the driver. In STEP 14, the image processing unit 1 determines the target, the vehicle 10, and the time series data of the real space position of the same target after turning angle correction obtained from a plurality of images captured within a predetermined monitoring period. The relative movement vector of is calculated.

なお、対象物の実空間座標(X,Y,Z)及び移動ベクトルの具体的な算出方法については、前掲した特開2003−230134号公報に詳説されているので、ここでは説明を省略する。   The specific calculation method of the real space coordinates (X, Y, Z) and the movement vector of the object is described in detail in the above-mentioned Japanese Patent Application Laid-Open No. 2003-230134, and the description thereof is omitted here.

次に、STEP15で、画像処理ユニット1は、車両10と対象物との接触可能性を判断して、注意喚起を行う必要があるか否かを判定する「注意喚起判定処理」を実行する。そして、「注意喚起判定処理」により、注意喚起を行う必要があると判定されたときは、STEP30に分岐してブザー6による注意喚起音の出力と、表示装置7への注意喚起表示を行う。一方、「注意喚起判定処理」により注意喚起を行う必要がないと判定されたときにはSTEP1に戻り、画像処理ユニット1は注意喚起を行わない。   Next, in STEP 15, the image processing unit 1 determines the possibility of contact between the vehicle 10 and the object, and executes “attention call determination processing” for determining whether or not it is necessary to call attention. When it is determined by the “attention call determination process” that it is necessary to call attention, the process branches to STEP 30 to output a warning sound by the buzzer 6 and display a warning on the display device 7. On the other hand, when it is determined by the “attention calling determination process” that it is not necessary to call attention, the process returns to STEP 1 and the image processing unit 1 does not call attention.

画像処理ユニット1は、「注意喚起判定処理」において、対象物が余裕時間内に自車両10と接触する可能性、対象物が自車両周囲に設定した接近判定領域内に存在するか否か、対象物が接近判定領域外から接近判定領域内に進入して自車両10と接触する可能性、対象物が歩行者であるか否か、対象物が人工構造物であるか否か、等を判定して、注意喚起を行う必要があるか否かを判定する。   In the “attention determination process”, the image processing unit 1 may check whether the target object is in contact with the host vehicle 10 within a margin time, whether the target object is within the approach determination area set around the host vehicle, The possibility that the object enters the approach determination area from outside the approach determination area and contacts the host vehicle 10, whether the object is a pedestrian, whether the object is an artificial structure, etc. Determine whether or not it is necessary to call attention.

なお、「注意喚起判定処理」の具体的な処理内容については、前掲した特開2003−230134に「警報出力判定処理」として詳説されているので、ここでは説明を省略する。   Note that the specific processing content of the “attention determination process” is described in detail as “alarm output determination process” in the above-described Japanese Patent Application Laid-Open No. 2003-230134, and thus the description thereof is omitted here.

以上説明したように、STEP12〜STEP13により「非監視対象判定処理」を行って、非監視対象と判定した対象物をSTEP14〜STEP16による注意喚起の処理の対象から除外することにより、画像処理ユニット1における演算量を減少させて、自車両10の周囲を効率良く監視することができる。   As described above, the image processing unit 1 is performed by performing the “non-monitoring target determination process” in STEP 12 to STEP 13 and excluding the object determined as the non-monitoring target from the target of the alerting process in STEP 14 to STEP 16. It is possible to efficiently monitor the surroundings of the host vehicle 10 by reducing the amount of computation at.

次に、上述した実施形態では、2台の赤外線2R,2Lを備えて対象物の実空間位置を算出することにより、自車両10と対象物との相対速度に基づいて対象物が非監視対象であるか否かを判定したが、1台の赤外線カメラしか搭載されていない車両においては、以下の処理によって、非監視対象除外手段25は対象物が非監視対象であるか否かを判定することができる。   Next, in the above-described embodiment, the object is a non-monitoring object based on the relative speed between the host vehicle 10 and the object by calculating the real space position of the object with the two infrared rays 2R and 2L. However, in a vehicle in which only one infrared camera is mounted, the non-monitoring object exclusion means 25 determines whether or not the object is a non-monitoring object by the following processing. be able to.

図5(a)は車載カメラによる自車両前方の画像であり、前走車の画像部分31と歩行者の画像32が含まれている。そして、図5(b)は図5(a)の状況を道路の上方から見た説明図であり、自車両41の前方を他車両42が走行し、自車両41の側方の歩道を歩行者43が歩いている。   FIG. 5A is an image in front of the host vehicle by an in-vehicle camera, and includes an image portion 31 of a preceding vehicle and an image 32 of a pedestrian. FIG. 5B is an explanatory diagram of the situation of FIG. 5A as viewed from above the road. The other vehicle 42 travels in front of the host vehicle 41 and walks on the sidewalk on the side of the host vehicle 41. Person 43 is walking.

ここで、歩行者43の移動速度Vd1は自車両41の移動速度Vjよりも極めて低い(Vd1≪Vj)ため、歩行者43と自車両41間の相対速度をVjとみなすことができる。そして、自車両41と歩行者43との距離がZ1であれば、歩行者の画像部分32はT1=Z1/Vj以上、画像内に存在しないことになる。   Here, since the moving speed Vd1 of the pedestrian 43 is extremely lower than the moving speed Vj of the host vehicle 41 (Vd1 << Vj), the relative speed between the pedestrian 43 and the host vehicle 41 can be regarded as Vj. If the distance between the host vehicle 41 and the pedestrian 43 is Z1, the pedestrian image portion 32 is not present in the image for T1 = Z1 / Vj or more.

一方、自車両41と他車両42は、通常はほぼ同一の速度(Vj≒Vd2)で走行しているため、図5(a)に示したように、カメラにより撮像される画像30中に、他車両42の画像部分31がほぼ同じ大きさで存在する状態が継続する。これは、太陽や山のように自車両から遠方にある対象物についても同様である。   On the other hand, the host vehicle 41 and the other vehicle 42 normally travel at substantially the same speed (Vj≈Vd2), and therefore, as shown in FIG. 5A, in the image 30 captured by the camera, The state where the image portion 31 of the other vehicle 42 exists with substantially the same size continues. The same applies to objects that are distant from the vehicle, such as the sun and mountains.

そこで、非監視対象除外手段25は、カメラにより撮像された時系列画像において、「直近の画像とその1つ前の画像間で、同一性判定手段22により同一の対象物の画像部分であると判定され、且つ、大きさの変化率が所定値以下である画像部分が抽出される状態が、判定時間設定手段24により設定された判定時間以上継続したとき」に、その対象物は非監視対象物(前走車、太陽、山等)であるとして、監視対象から除外することができる。   Therefore, the non-monitoring target exclusion means 25 is a time-series image captured by the camera, saying that “the same image between the latest image and the previous image is an image portion of the same object by the identity determination means 22. When the determination and the state in which the image portion whose size change rate is equal to or less than the predetermined value continues for the determination time set by the determination time setting means 24 ", the object is a non-monitoring target. It can be excluded from the monitoring target as being an object (previous vehicle, sun, mountain, etc.).

この場合には、1台のカメラのみを備えてレーダ等の測距手段も備えていないために、対象物との距離が算出できない車両や、映像解像度が低いカメラを搭載した車両においても、比較的単純な処理によって、歩行者等の監視対象と前走車等の非監視対象とを判別することができる。   In this case, since only one camera is provided and no distance measuring means such as a radar is provided, comparison is possible even with a vehicle in which the distance to the object cannot be calculated or a vehicle equipped with a camera with a low video resolution. Through simple processing, it is possible to discriminate between a monitoring target such as a pedestrian and a non-monitoring target such as a preceding vehicle.

なお、本実施の形態においては、車両前方を撮像する構成を示したが、車両の後方や側方等、他の方向を撮像して対象物との接触可能性を判断するようにしてもよい。   In the present embodiment, the configuration in which the front of the vehicle is imaged is shown. However, the possibility of contact with the object may be determined by imaging other directions such as the rear and side of the vehicle. .

また、本実施の形態においては、本発明の撮像手段として赤外線カメラ2R,2Lを用いたが、可視画像を撮像する可視カメラを用いてもよい。   Further, in the present embodiment, the infrared cameras 2R and 2L are used as the imaging means of the present invention, but a visible camera that captures a visible image may be used.

また、本実施の形態において、赤外線カメラ2Rの撮像画像と赤外線カメラ2Lの撮像画像の視差量に基いて自車両10と対象物との距離を算出したが、レーダー等による距離センサを用いて自車両10と対象物との距離を直接的に検知するようにしてもよい。   In the present embodiment, the distance between the host vehicle 10 and the object is calculated based on the parallax amount between the captured image of the infrared camera 2R and the captured image of the infrared camera 2L. You may make it detect directly the distance of the vehicle 10 and a target object.

本発明の車両周囲監視装置の構成図。The block diagram of the vehicle periphery monitoring apparatus of this invention. 図1に示した車両周囲監視装置の車両への取り付け態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of the vehicle periphery monitoring apparatus shown in FIG. 図1に示した画像処理ユニットにおける処理手順を示したフローチャート。3 is a flowchart showing a processing procedure in the image processing unit shown in FIG. 1. 非監視対象判定処理のフローチャート。The flowchart of a non-monitoring object determination process. 非監視対象判定処理における歩行者と前走車の判別の説明図。Explanatory drawing of discrimination | determination of a pedestrian and a preceding vehicle in a non-monitoring object determination process.

符号の説明Explanation of symbols

1…画像処理ユニット、2R,2L…赤外線カメラ(撮像手段)、3…ヨーレートセンサ、4…車速センサ、5…ブレーキセンサ、6…スピーカ、7…表示装置、20…対象物抽出手段、21…相対速度算出手段、22…同一性判定手段、23…種別判別手段、24…判定時間設定手段、25…非監視対象除外手段   DESCRIPTION OF SYMBOLS 1 ... Image processing unit, 2R, 2L ... Infrared camera (imaging means), 3 ... Yaw rate sensor, 4 ... Vehicle speed sensor, 5 ... Brake sensor, 6 ... Speaker, 7 ... Display apparatus, 20 ... Object extraction means, 21 ... Relative speed calculation means, 22 ... identity determination means, 23 ... type determination means, 24 ... determination time setting means, 25 ... non-monitoring object exclusion means

Claims (4)

車両に搭載された撮像手段により撮像された画像に基づいて、前記車両の周辺を監視する車両周辺監視装置において、
前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、
前記相対速度算出手段により算出された相対速度の変化率が所定値以下である状態が、所定の判定時間以上継続したときに、前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする車両周辺監視装置。
In a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle,
Object extraction means for extracting an image portion of the object in real space from the image captured by the imaging means;
A relative speed calculating means for calculating a relative speed between an object in real space corresponding to the image portion extracted by the object extracting means and the vehicle;
In a real space corresponding to the image portion extracted by the object extracting means when the rate of change of the relative speed calculated by the relative speed calculating means is not more than a predetermined value continues for a predetermined determination time or longer. A vehicle periphery monitoring apparatus comprising: a non-monitoring object exclusion unit that excludes the object from the monitoring object.
車両に搭載された撮像手段により撮像された画像に基づいて、前記車両の周辺を監視する車両周辺監視装置において、
前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段と、
前記撮像手段により間隔を置いて撮像された複数の時系列画像について、各画像から前記対象物抽出手段により抽出された画像部分が、実空間上の同一の対象物の画像部分であるか否かを判別する同一性判定手段と、
前記時系列画像において、前記撮像手段により直近に撮像された画像と、その画像よりも前の画像間で、前記同一性判定手段により実空間上の同一の対象物の画像部分であると判別され、且つ、大きさの変化率が所定値以下である画像部分が存在する状態が、所定の判定時間以上継続したときに、該画像部分に対応する実空間上の対象物を、監視対象から除外する非監視対象除外手段とを備えたことを特徴とする車両周辺監視装置。
In a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle,
Object extraction means for extracting an image portion of the object in real space from the image captured by the imaging means;
For a plurality of time-series images captured at intervals by the imaging unit, whether or not the image portions extracted by the object extraction unit from each image are image portions of the same object in real space Identity determining means for determining
In the time-series image, between the image most recently captured by the imaging unit and the image before the image, the identity determining unit determines that the image portion is the same object in real space. In addition, when a state in which an image portion whose size change rate is equal to or less than a predetermined value continues for a predetermined determination time or longer, an object in the real space corresponding to the image portion is excluded from the monitoring target. A vehicle periphery monitoring apparatus comprising: a non-monitoring object exclusion unit that performs
請求項1又は請求項2記載の車両周辺監視装置において、
前記判定時間を、前記車両の速度が速いほど短い時間に設定する判定時間設定手段を備えたことを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 or claim 2,
A vehicle periphery monitoring device, comprising: a determination time setting means for setting the determination time to a shorter time as the speed of the vehicle is higher.
請求項1又は請求項2記載の車両周辺監視装置において、
前記対象物抽出手段により抽出された画像部分に対応する実空間上の対象物の種別を判別する種別判別手段と、
前記種別判別手段により判別された対象物の種別に応じて、前記判定時間を設定する判定時間設定手段とを備えたことを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 or claim 2,
Type discriminating means for discriminating the type of the object in the real space corresponding to the image portion extracted by the object extracting means;
A vehicle periphery monitoring device comprising: a determination time setting unit that sets the determination time according to the type of the object determined by the type determination unit.
JP2008261924A 2008-10-08 2008-10-08 Vehicle periphery monitoring device Expired - Fee Related JP4864953B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008261924A JP4864953B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008261924A JP4864953B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010093569A true JP2010093569A (en) 2010-04-22
JP4864953B2 JP4864953B2 (en) 2012-02-01

Family

ID=42255871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008261924A Expired - Fee Related JP4864953B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4864953B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011143866A1 (en) * 2010-05-18 2011-11-24 武汉高德红外股份有限公司 Method for vehicle anticollision warning based on passive infrared vision
GB2494526A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Vehicle Speed Determination
JP2013105419A (en) * 2011-11-16 2013-05-30 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2016115259A (en) * 2014-12-17 2016-06-23 日立建機株式会社 Work machine and monitoring device of periphery of the same
JP2018120303A (en) * 2017-01-23 2018-08-02 株式会社Soken Object detection device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05166097A (en) * 1991-12-16 1993-07-02 Stanley Electric Co Ltd Alarm for rear-end collisions
JP2002298298A (en) * 2001-03-30 2002-10-11 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2003016429A (en) * 2001-06-28 2003-01-17 Honda Motor Co Ltd Vehicle periphery monitor device
JP2007213561A (en) * 2006-01-16 2007-08-23 Honda Motor Co Ltd Vehicle periphery supervisory unit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05166097A (en) * 1991-12-16 1993-07-02 Stanley Electric Co Ltd Alarm for rear-end collisions
JP2002298298A (en) * 2001-03-30 2002-10-11 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2003016429A (en) * 2001-06-28 2003-01-17 Honda Motor Co Ltd Vehicle periphery monitor device
JP2007213561A (en) * 2006-01-16 2007-08-23 Honda Motor Co Ltd Vehicle periphery supervisory unit

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011143866A1 (en) * 2010-05-18 2011-11-24 武汉高德红外股份有限公司 Method for vehicle anticollision warning based on passive infrared vision
GB2494526A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Vehicle Speed Determination
GB2494526B (en) * 2011-09-06 2015-11-25 Jaguar Land Rover Ltd Improvements in vehicle speed determination
JP2013105419A (en) * 2011-11-16 2013-05-30 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2016115259A (en) * 2014-12-17 2016-06-23 日立建機株式会社 Work machine and monitoring device of periphery of the same
JP2018120303A (en) * 2017-01-23 2018-08-02 株式会社Soken Object detection device

Also Published As

Publication number Publication date
JP4864953B2 (en) 2012-02-01

Similar Documents

Publication Publication Date Title
JP4733756B2 (en) Vehicle periphery monitoring device
JP4631096B2 (en) Vehicle periphery monitoring device
JP4815488B2 (en) Vehicle periphery monitoring device
JP4203512B2 (en) Vehicle periphery monitoring device
JP4426535B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
US7436982B2 (en) Vehicle surroundings monitoring apparatus
US8766816B2 (en) System for monitoring the area around a vehicle
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4173902B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
JP5774770B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2005354597A (en) Vehicle vicinity monitoring apparatus
US20150169980A1 (en) Object recognition device
JP4864953B2 (en) Vehicle periphery monitoring device
JP5004923B2 (en) Vehicle driving support device
JP6087240B2 (en) Vehicle periphery monitoring device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2004106682A (en) Obstacle detection device
JP4176558B2 (en) Vehicle periphery display device
JP5399887B2 (en) Vehicle periphery monitoring device
JP4975776B2 (en) Vehicle periphery monitoring device
JP5430633B2 (en) Vehicle periphery monitoring device
JP6362945B2 (en) In-vehicle image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4864953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees