JP2007241898A - Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device - Google Patents

Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device Download PDF

Info

Publication number
JP2007241898A
JP2007241898A JP2006066637A JP2006066637A JP2007241898A JP 2007241898 A JP2007241898 A JP 2007241898A JP 2006066637 A JP2006066637 A JP 2006066637A JP 2006066637 A JP2006066637 A JP 2006066637A JP 2007241898 A JP2007241898 A JP 2007241898A
Authority
JP
Japan
Prior art keywords
vehicle
stopped
area
image
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006066637A
Other languages
Japanese (ja)
Inventor
Masato Watanabe
正人 渡辺
Hiroshi Sato
公士 佐藤
Yoshizo Ishida
喜三 石田
Tomo Fujimaki
朋 藤巻
Hiroyuki Tokunaga
裕之 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006066637A priority Critical patent/JP2007241898A/en
Publication of JP2007241898A publication Critical patent/JP2007241898A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To distinguish/detect with high reliability whether or not another vehicle stopping ahead of an own vehicle is a temporary stopping one and to alert a driver of the own vehicle with a proper alarm. <P>SOLUTION: This device detects the other stopping vehicle from an image ahead of the own vehicle 10 picked up by image pickup devices 2R, 2L and detects the temperature state of the other vehicle based on the brightness state of the image of the other vehicle. The device determines whether or not the other vehicle is a temporary stopping one based on the temperature state. According to whether or not it is a temporary stopping one, the device variably sets up at least one of a detection region of an object and a requirement for alarm regarding the object. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、自車両の前方で停止している他車両が一時的な停止車両であるか、長期的な停止車両であるかを分別して検出する装置と、その装置を利用する車両の周辺監視装置に関する。   The present invention relates to a device for separately detecting whether another vehicle stopped in front of the host vehicle is a temporarily stopped vehicle or a long-term stopped vehicle, and surrounding monitoring of the vehicle using the device Relates to the device.

車両に搭載した撮像装置により、自車両の前方などを撮像し、その撮像画像から、歩行者、他車両などの対象物を検出し、検出された対象物が歩行者である場合、あるいは、検出された対象物が自車両に衝突する恐れがある場合など、所要の警報発生要件を満たす対象物が検出された場合に、自車両の運転者に警報を行なうようにして、運転者の注意を喚起するようにした装置が従来より知られている(例えば特許文献1および特許文献2を参照)。
特開平11−215487号公報 特開2003−230134号公報
When an imaging device mounted on a vehicle captures an image of the front of the host vehicle and detects an object such as a pedestrian or another vehicle from the captured image, or when the detected object is a pedestrian, or is detected When an object that meets the required alarm generation requirements is detected, such as when there is a risk that the target object will collide with the host vehicle, the driver of the host vehicle is alerted and the driver's attention is given. Devices that are designed to evoke are conventionally known (see, for example, Patent Document 1 and Patent Document 2).
JP 11-215487 A JP 2003-230134 A

ところで、自車両の前方(自車両の正面前方だけでなく、斜め前方も含む)に存在する他車両が停止している(移動していない)場合、該他車両の停止状況がどのような状況であるのかによって、衝突回避などのために自車両の運転者に注意させるべき環境範囲を変化させることが望ましい場合が多々ある。例えば、自車両の前方(特に斜め前方)で停止している他車両が一時的に停止している車両である場合には、自車両の運転者が未だ認識できていないか、もしくはほとんど注意を向けていない人を、該他車両の運転者が横断させようとしたり、該他車両に乗車させようとしている状況や、該他車両の乗員が降車しようとしている状況などが多々ある。また、前記他車両が駐車直後の停止状態である場合にも、該他車両の乗員が降車しようとしている状況が多々ある。そして、このような状況では、道路の横断者、他車両からの降車した人などが、自車両の前方に不意に飛び出して来るような状況が、前記他車両が定常的に停止(駐車)している場合に比べて発生しやすい。   By the way, when other vehicles existing in front of the host vehicle (including not only the front front of the host vehicle but also diagonally forward) are stopped (not moving), what is the stop status of the other vehicle? In many cases, it is desirable to change the environmental range that the driver of the host vehicle should be aware of in order to avoid a collision. For example, when the other vehicle that is stopped in front of the host vehicle (especially diagonally forward) is a vehicle that is temporarily stopped, the driver of the host vehicle has not been recognized yet, or little attention is paid. There are many situations where the driver of the other vehicle is trying to cross a person who is not facing or getting on the other vehicle, or a passenger of the other vehicle is getting off the vehicle. In addition, even when the other vehicle is in a stop state immediately after parking, there are many situations where a passenger of the other vehicle is about to get off. In such a situation, a situation in which a person who crossed the road, a person who got off from another vehicle, etc. unexpectedly jumped out in front of the host vehicle stopped (parked) constantly. It is more likely to occur than if it is.

従って、上記のような状況では、自車両の前方で他車両が定常的に停止している場合、あるいは、自車両の前方で停止している他車両が存在しない場合よりも広範囲にわたって人の存在などに対する運転者の注意を喚起することが望ましい。   Therefore, in the situation as described above, there is a wider range of people than when the other vehicle is stationary in front of the own vehicle or when there is no other vehicle stopped in front of the own vehicle. It is desirable to alert the driver to

一方、撮像装置の撮像画像などから、自車両の前方の他車両を検出する手法としては、前記特許文献2に見られる手法など、種々様々の手法が従来より提案されている。また、該他車両が、停止している車両であるか否かは、例えば、該他車両の自車両に対する相対速度を検出し、その相対速度と自車両の検出速度との比較などにより、認識することが可能である。   On the other hand, as a method for detecting another vehicle in front of the host vehicle from a captured image of the imaging device, various methods such as the method described in Patent Document 2 have been proposed. Whether or not the other vehicle is a stopped vehicle is recognized by, for example, detecting the relative speed of the other vehicle with respect to the own vehicle and comparing the relative speed with the detected speed of the own vehicle. Is possible.

しかるに、従来は、自車両の前方で停止している他車両が、一時的に停止しているのか、あるいは、駐車直後の状態なのか、あるいは、定常的に駐車している状態なのかというような該他車両の停止状況の形態を区別して検知する適切な手法が未だ提案されていないのが実状である。従って、他車両の停止状況がどのような形態の停止状況であるのかを区別して検出する手法が望まれてる。   However, conventionally, whether the other vehicle stopped in front of the host vehicle is temporarily stopped, just after parking, or in a state where it is parked regularly. In fact, an appropriate method for distinguishing and detecting the state of the stop state of the other vehicle has not been proposed yet. Therefore, a method for distinguishing and detecting what type of stop state the other vehicle is in is desired.

この場合、例えば可視光域の撮像装置を自車両に搭載した場合には、自車両の前方で停止している他車両の制動灯の点灯の有無により、該他車両が一時的に停止しているか否かを検知することが考えられる。しかるに、この場合には、前記他車両が対向車線に存在する場合には、該他車両が一時的に停止しているか否かを検知することができず、さらには、サイドブレーキなどの駐車用ブレーキ装置を作動させて一時的に停止した他車両や、駐車直後の他車両を検知することもできない。   In this case, for example, when an imaging device in the visible light range is mounted on the own vehicle, the other vehicle temporarily stops depending on whether or not the brake light of the other vehicle stopped in front of the own vehicle is lit. It is conceivable to detect whether or not there is. However, in this case, when the other vehicle is present in the oncoming lane, it cannot be detected whether the other vehicle is temporarily stopped, and further, for parking such as a side brake. It is also impossible to detect other vehicles that are temporarily stopped by operating the brake device, or other vehicles that have just been parked.

本発明は、かかる背景に鑑みてなされたものであり、自車両の前方で停止している他車両が、一時的な停止車両であるか否かを高い信頼性で区別して検出することができる停止車両分別検出装置を提供することを目的とする。さらに、この停止車両分別検出装置を使用して、自車両の運転者に適切な警報を行なうことができる車両の周辺監視装置を提供することを目的とする。   The present invention has been made in view of such a background, and can detect with high reliability whether or not another vehicle stopped in front of the host vehicle is a temporarily stopped vehicle. It aims at providing a stop vehicle classification detection device. It is another object of the present invention to provide a vehicle periphery monitoring device capable of providing an appropriate alarm to the driver of the host vehicle using the stopped vehicle classification detection device.

なお、本発明においては、「一時的な停止車両」は、車両の原動機(推進源)を運転させたまま停止している車両、あるいは、車両の原動機の運転を停止した直後の状態で停止している車両を意味する。   In the present invention, the “temporarily stopped vehicle” is a vehicle that is stopped while the prime mover (propulsion source) of the vehicle is operated, or is stopped immediately after the operation of the prime mover of the vehicle is stopped. Means a vehicle.

本発明の停止車両分別検出装置は、前記の目的を達成するために、自車両の前方で停止している他車両が一時的な停止車両であるか否かを区別して検出する停止車両分別検出装置であって、自車両の前部に搭載され、遠赤外域に感度を有する撮像装置と、該撮像装置により撮像された自車両の前方の画像から停止中の他車両を検出する停止車両検出手段と、該停止車両検出手段により停止中の他車両が検出されたとき、前記撮像装置により撮像された画像のうちの、該停止中の他車両に対応する部分画像である停止車両画像を基に、該停止中の他車両の温度状態を検出する温度状態検出手段と、該温度状態検出手段により検出された温度状態に基づいて、前記停止中の他車両が一時的な停止車両であるか否かを区別して判定する判定手段とを備えることを特徴とする。   In order to achieve the above object, the stop vehicle classification detection device of the present invention detects whether or not another vehicle stopped in front of the host vehicle is a temporary stop vehicle. An imaging device mounted on the front of the host vehicle and having sensitivity in the far-infrared region, and stopped vehicle detection for detecting other vehicles that are stopped from an image in front of the host vehicle captured by the imaging device And a stopped vehicle image that is a partial image corresponding to the stopped other vehicle among the images captured by the imaging device when the stopped vehicle detecting means detects the stopped other vehicle. And a temperature state detecting means for detecting a temperature state of the other vehicle being stopped, and whether the other vehicle being stopped is a temporarily stopped vehicle based on the temperature state detected by the temperature state detecting means. Judgment means for distinguishing whether or not Characterized in that it obtain.

かかる本発明によれば、前記撮像装置は、遠赤外域に感度を有する撮像装置であるので、該撮像装置により撮像された自車両の前方の画像に、停止中の他車両に対応する前記停止車両画像が含まれる場合に、該停止車両画像は、該他車両の温度状態に応じた画像となる。詳しくは、該停止車両画像の各部の輝度がその部分に対応する他車両の部分の温度に応じたものなる。従って、該停止車両画像を基に、該他車両の温度状態を検出することができる。   According to the present invention, since the imaging device is an imaging device having sensitivity in the far-infrared region, the stop corresponding to the other vehicle being stopped is displayed in the image ahead of the host vehicle imaged by the imaging device. When a vehicle image is included, the stopped vehicle image is an image according to the temperature state of the other vehicle. Specifically, the luminance of each part of the stopped vehicle image corresponds to the temperature of the part of the other vehicle corresponding to that part. Therefore, the temperature state of the other vehicle can be detected based on the stopped vehicle image.

ここで、前記停止中の他車両の温度状態(温度分布など)は、該他車両が一時的な停止車両であるか否かで顕著な差異を生じる。すなわち、停止中の他車両が一時的な停止車両でない場合には、一般に、該他車両の各部の温度がさほど高くないと共にその温度のばらつきが小さい。これに対して、該他車両が一時的な停止車両である場合には、該他車両の温度状態は、局所的な高温部を有するような温度状態となる。例えば該他車両の各部のうち、排気管の箇所、タイヤの箇所、あるいは、原動機搭載部の温度が、他の部分の温度よりも高温になる。また、該他車両の各部の温度のばらつきも生じる。従って、前記停止車両画像を基に、該他車両の温度状態を検出することで、該他車両が一時的な停止車両であるか否かを区別して判定することができる。   Here, the temperature state (temperature distribution or the like) of the other vehicle that is stopped is significantly different depending on whether or not the other vehicle is a temporarily stopped vehicle. That is, when the other vehicle being stopped is not a temporarily stopped vehicle, generally, the temperature of each part of the other vehicle is not so high and the variation in the temperature is small. On the other hand, when the other vehicle is a temporarily stopped vehicle, the temperature state of the other vehicle is a temperature state having a local high temperature portion. For example, in each part of the other vehicle, the temperature of the exhaust pipe, the tire, or the prime mover mounting part is higher than the temperature of the other part. In addition, the temperature of each part of the other vehicle also varies. Therefore, by detecting the temperature state of the other vehicle based on the stopped vehicle image, it is possible to distinguish and determine whether or not the other vehicle is a temporarily stopped vehicle.

よって、本発明の停止車両分別検出装置によれば、自車両の前方で停止している他車両が、一時的な停止車両であるか否かを高い信頼性で区別して検出することができる。   Therefore, according to the stop vehicle classification detection device of the present invention, it is possible to distinguish and detect with high reliability whether another vehicle stopped in front of the host vehicle is a temporarily stopped vehicle.

なお、前記停止車両検出手段による他車両の検出は、公知の手法で行なえばよい。また、このとき、該他車両が停止しているか否かの判断は、例えば、レーダーによる公知の測距手法や、ステレオ画像処理による視差を利用した公知の測距手法により、該他車両の自車両に対する相対位置を時系列的に検出し、その相対位置の時系列から求められる相対速度と、自車両の検出速度との比較に基づいて判断すればよい。   In addition, what is necessary is just to perform the detection of the other vehicle by the said stop vehicle detection means by a well-known method. At this time, whether or not the other vehicle is stopped is determined by, for example, a known distance measuring method using a radar or a known distance measuring method using parallax by stereo image processing. The relative position with respect to the vehicle may be detected in time series, and a determination may be made based on a comparison between the relative speed obtained from the time series of the relative position and the detected speed of the host vehicle.

かかる本発明の停止車両分別検出装置では、前記温度状態検出手段により検出する温度状態は、少なくとも前記停止中の他車両の所定の部位の温度状態を含むことが好ましい。この場合、前記所定の部位は、例えば前記他車両の排気管とタイヤと原動機搭載部とのうちの少なくともいずれかであることが好ましい。   In the stopped vehicle classification detection device of the present invention, it is preferable that the temperature state detected by the temperature state detection means includes at least a temperature state of a predetermined part of the other vehicle that is stopped. In this case, the predetermined portion is preferably at least one of an exhaust pipe, a tire, and a prime mover mounting portion of the other vehicle, for example.

すなわち、停止中の他車両が一時的な停止車両である場合、前記したように該他車両の温度状態は、局所的な高温部分を有するような温度状態となるので、例えばそのような高温部分を前記所定の部位として、該所定の部位の温度状態を検出することで、該所定の温度状態を基に、該他車両が一時的な停止車両であるか否かを容易に判定することができる。特に、該他車両が一時的な停止車両であるときには、該他車両の排気管、タイヤ、原動機搭載部の温度が顕著に高温になるので、これらの排気管、タイヤ、原動機搭載部のいずれかを前記所定の部位として、該所定の部位の温度状態を検出することで、他車両が一時的な停止車両であるか否かの判定を高い信頼性で適切に行なうことができる。   That is, when the other vehicle being stopped is a temporarily stopped vehicle, the temperature state of the other vehicle is a temperature state having a local high temperature portion as described above. By detecting the temperature state of the predetermined part as the predetermined part, it is possible to easily determine whether the other vehicle is a temporarily stopped vehicle based on the predetermined temperature state it can. In particular, when the other vehicle is a temporarily stopped vehicle, the temperature of the exhaust pipe, tire, and prime mover mounting portion of the other vehicle becomes significantly high. By detecting the temperature state of the predetermined part as the predetermined part, it can be appropriately determined with high reliability whether or not the other vehicle is a temporarily stopped vehicle.

また、本発明の停止車両分別検出装置では、前記停止車両画像の各部の輝度は、その部分に対応する他車両の部分の温度に応じたものとなるので、前記温度状態検出手段は、前記停止車両画像の輝度状態を前記停止中の車両の温度状態を示すものとして検出するようにすればよい。これにより、他車両の温度状態の適切な検出を容易に行なうことができる。   Further, in the stopped vehicle classification detection device according to the present invention, the brightness of each part of the stopped vehicle image depends on the temperature of the part of the other vehicle corresponding to the part. The brightness state of the vehicle image may be detected as indicating the temperature state of the stopped vehicle. Thereby, appropriate detection of the temperature state of another vehicle can be performed easily.

次に、本発明の車両の周辺監視装置は、前記の目的を達成するために、第1の態様および第2の態様があり、その第1の態様は、少なくとも自車両の前方の所定の検出領域に存在する対象物を検出する対象物検出手段と、該対象物検出手段により検出された対象物が少なくとも所定の警報発生要件を満たすことを必要要件として、自車両の運転者に警報を発する警報発生手段とを備えた車両の周辺監視装置において、前記した本発明の停止車両分別検出装置と、該停止車両分別検出装置の前記判定手段の判定結果に応じて前記検出領域を可変的に設定する検出領域設定手段とを備えたことを特徴とする。   Next, in order to achieve the above object, the vehicle periphery monitoring apparatus of the present invention has a first aspect and a second aspect, and the first aspect is at least a predetermined detection in front of the host vehicle. An object detection means for detecting an object existing in the area and an alarm to the driver of the host vehicle are issued as a necessary requirement that the object detected by the object detection means satisfies at least a predetermined alarm generation requirement. In a vehicle periphery monitoring device comprising an alarm generation means, the detection region is variably set according to the determination result of the stop vehicle classification detection device of the present invention and the determination means of the stop vehicle classification detection device. And a detection area setting means.

この第1の態様によれば、前記停止車両分別検出装置の判定手段の判定結果に応じて前記検出領域(空間的な領域)を可変的に設定するので、自車両の前方の停止中の他車両が一時的な停止車両である場合と、そうでない場合とで、前記対象物を検出しようとする検出領域を異なるものにすることができる。このため、該停止中の他車両が一時的な停止車両であるか否かで、それぞれの停止状況に適した検出領域で前記対象物を検出することができ、ひいては、それぞれの停止状況に適した警報を自車両の運転者に対して行なうことができる。   According to the first aspect, the detection area (spatial area) is variably set according to the determination result of the determination means of the stopped vehicle classification detection device. The detection area where the object is to be detected can be different depending on whether the vehicle is a temporarily stopped vehicle or not. Therefore, the object can be detected in a detection region suitable for each stop situation depending on whether or not the other vehicle being stopped is a temporarily stopped vehicle, and thus suitable for each stop situation. Warning can be given to the driver of the vehicle.

従って、本発明の車両の周辺監視装置の第1の態様によれば、本発明の停止車両分別検出装置を効果的に使用して、自車両の運転者に適切な警報を行なうことができる。   Therefore, according to the first aspect of the vehicle periphery monitoring device of the present invention, it is possible to effectively use the stopped vehicle classification detection device of the present invention to give an appropriate warning to the driver of the host vehicle.

なお、この第1の態様では、前記対象物検出手段による対象物の検出は、前記停止車両分別検出装置の撮像装置により撮像された画像を基に行なうようにしてもよいことはもちろんであるが、前記停止車両分別検出装置の撮像装置とは別の撮像装置を使用して、あるいは、レーダなどの別の検出手段を使用して対象物を検出するようにしてもよい。   In this first aspect, it is needless to say that the detection of the object by the object detection means may be performed based on the image captured by the imaging device of the stopped vehicle classification detection device. The object may be detected using an imaging device different from the imaging device of the stopped vehicle classification detection device or using another detection means such as a radar.

かかる第1の態様では、より具体的には、前記検出領域設定手段は、前記停止車両分別検出装置の判定手段により前記検出された停止中の他車両が一時的な停止車両であると判定されたときには、前記停止中の他車両が検出されないか、または、前記検出された停止中の他車両が一時的な停止車両でないと判定されたときよりも前記検出領域を少なくとも前記自車両の幅方向に拡大するように設定することが好ましい。   In the first aspect, more specifically, the detection area setting means determines that the detected other vehicle being stopped is a temporarily stopped vehicle by the determination means of the stopped vehicle classification detection device. When the other vehicle that is stopped is not detected, or the detected other vehicle that is stopped is determined not to be a temporarily stopped vehicle, the detection region is at least in the width direction of the host vehicle. It is preferable to set so as to enlarge.

これによれば、自車両の前方に停止中の他車両が検出され、その他車両が一時的な停止車両であると判定されたとき、すなわち、人などの飛び出しの可能性が高まって、自車両の運転者が注意すべき周辺範囲が広がる状況では、停止中の他車両が検出されないか、または、前記検出された停止中の他車両が一時的な停止車両でないと判定されたときよりも前記検出領域を少なくとも前記自車両の幅方向に拡大するので、前記警報発生要件を満たすような対象物が検出され得る空間的な範囲が、少なくとも自車両の車幅方向に大きくなる。このため、警報発生要件を満たすような対象物(特に自車両の運転者の注意が未だ向けられていないような対象物)を早期に検出して、運転者に警報を発することができる。また、停止中の他車両が検出されないか、または、検出された停止中の他車両が一時的な停止車両でない場合には、前記検出領域が、検出された停止中の他車両が一時的な停止車両である場合よりも自車両の車幅方向に狭めになるので、必要以上に警報の発生の頻度が高まるのを防止できる。   According to this, when another vehicle that is stopped in front of the host vehicle is detected and it is determined that the other vehicle is a temporarily stopped vehicle, that is, the possibility of a person jumping out increases. In a situation where the surrounding area to be noted by the driver of the vehicle is wide, the stopped other vehicle is not detected, or the detected other vehicle that is stopped is determined not to be a temporarily stopped vehicle. Since the detection area is expanded at least in the width direction of the host vehicle, a spatial range in which an object that satisfies the alarm generation requirement can be detected increases at least in the vehicle width direction of the host vehicle. For this reason, it is possible to detect an object that satisfies the alarm generation requirement (particularly, an object for which the driver's attention has not yet been directed) at an early stage, and to issue an alarm to the driver. In addition, when the other vehicle that is stopped is not detected or the detected other vehicle that is stopped is not a temporarily stopped vehicle, the detected region is the temporary other vehicle that is detected. Since it is narrower in the vehicle width direction of the host vehicle than in the case of a stopped vehicle, it is possible to prevent the frequency of alarms from being increased more than necessary.

なお、本発明の車両の周辺監視装置の第1の態様では、前記対象物検出手段が、前記停止車両分別検出装置の前記撮像装置により撮像された自車量の前方の画像を基に、前記対象物を検出する手段であり、前記検出領域設定手段は、前記撮像装置により撮像された画像のうちの、前記対象物を検出すべき画像領域を前記停止車両分別検出装置の判定手段の判定結果に応じて可変的に設定することにより、前記検出領域を可変的に設定することができる。そして、この場合、警報対象物検出手段と停止車両分別検出装置とで、撮像装置を共用できる。   In the first aspect of the vehicle periphery monitoring device of the present invention, the object detection means is based on an image in front of the own vehicle amount captured by the imaging device of the stopped vehicle classification detection device. The detection area setting means is a means for detecting an object, and the detection area setting means determines an image area in which the object is to be detected, among the images captured by the imaging apparatus, a determination result of the determination means of the stop vehicle classification detection apparatus The detection area can be variably set by variably setting according to the above. In this case, the alarm object detection means and the stopped vehicle classification detection device can share the imaging device.

また、本発明の車両の周辺監視装置の第2の態様は、前記の目的を達成するために、少なくとも自車両の前方に存在する対象物を検出する対象物検出手段と、該対象物検出手段により検出された対象物が少なくとも所定の警報発生要件を満たすことを必要要件として、自車両の運転者に警報を発する警報発生手段とを備えた車両の周辺監視装置において、前記した本発明の停止車両分別検出装置と、該停止車両分別検出装置の前記判定手段の判定結果に応じて前記警報発生要件を可変的に設定する警報発生要件設定手段とを備えたことを特徴とする。   According to a second aspect of the vehicle periphery monitoring apparatus of the present invention, in order to achieve the above object, at least an object detection means for detecting an object existing in front of the host vehicle, and the object detection means. In the vehicle periphery monitoring device, comprising the alarm generation means for issuing an alarm to the driver of the host vehicle, on the assumption that the object detected by the vehicle satisfies at least a predetermined alarm generation requirement, the stop of the present invention described above A vehicle classification detection device and an alarm generation requirement setting unit that variably sets the alarm generation requirement according to a determination result of the determination unit of the stopped vehicle classification detection device.

この第2の態様によれば、前記停止車両分別検出装置の判定手段の判定結果に応じて前記警報発生要件を可変的に設定するので、自車両の前方の停止中の他車両が一時的な停止車両である場合と、そうでない場合とで、異なる警報発生要件で、自車両の運転者に対する警報を行なうことができる。このため、該停止中の他車両が一時的な停止車両であるか否かで、それぞれの停止状況に適した警報発生要件で、適宜、自車両の運転者に対する警報を行なうことができる。   According to this second aspect, since the alarm generation requirement is variably set according to the determination result of the determination means of the stopped vehicle classification detection device, the other vehicle that is stopped ahead of the host vehicle is temporarily A warning can be given to the driver of the host vehicle with different alarm generation requirements depending on whether the vehicle is a stopped vehicle or not. For this reason, depending on whether or not the other vehicle being stopped is a temporarily stopped vehicle, it is possible to appropriately issue a warning to the driver of the host vehicle according to the alarm generation requirement suitable for each stop situation.

従って、本発明の車両の周辺監視装置の第2の態様によれば、本発明の停止車両分別検出装置を効果的に使用して、自車両の運転者に適切な警報を行なうことができる。   Therefore, according to the second aspect of the vehicle periphery monitoring device of the present invention, it is possible to effectively use the stopped vehicle classification detection device of the present invention to give an appropriate warning to the driver of the host vehicle.

なお、この第2の態様では、第1の態様の場合と同様に、前記対象物検出手段による対象物の検出は、前記停止車両分別検出装置の撮像装置により撮像された画像を基に行なうようにしてもよいことはもちろんであるが、前記停止車両分別検出装置の撮像装置とは別の撮像装置を使用して、あるいは、レーダなどの別の検出手段を使用して対象物を検出するようにしてもよい。   In the second aspect, as in the case of the first aspect, the detection of the object by the object detection means is performed based on the image captured by the imaging device of the stopped vehicle classification detection device. Of course, the object may be detected using an imaging device different from the imaging device of the stopped vehicle classification detection device or using another detection means such as a radar. It may be.

かかる第2の態様では、前記警報発生要件が、前記対象物検出手段により検出された警報対象物の、自車両の前方の所定の警報領域に対する位置関係に関する要件を含む場合には、前記警報発生要件設定手段は、前記警報領域を前記停止車両分別検出装置の判定手段の判定結果に応じて可変的に設定することにより前記警報発生要件を可変的に設定する手段であることが好ましい。   In the second aspect, when the alarm generation requirement includes a requirement regarding a positional relationship of the alarm object detected by the object detection means with respect to a predetermined alarm area in front of the host vehicle, the alarm is generated. The requirement setting means is preferably means for variably setting the warning generation requirement by variably setting the warning area according to the determination result of the determination means of the stopped vehicle classification detection device.

これによれば、自車両の前方の停止中の他車両が一時的な停止車両である場合と、そうでない場合とで、前記警報領域が異なる領域に設定され、その警報領域の変化によって、前記対象物が同じであっても、該対象物の警報領域に対する位置関係を変化させることができる。それにより、前記警報発生要件の可変的な設定を容易に行なうことができる。   According to this, the warning area is set to different areas depending on whether the other vehicle in front of the host vehicle is temporarily stopped or not, and the change in the warning area causes the Even if the object is the same, the positional relationship of the object with respect to the alarm region can be changed. Thereby, the variable setting of the alarm generation requirement can be easily performed.

なお、この場合の警報発生要件としては、警報領域内に対象物が存在する、対象物が、所定時間内に警報領域内に進入することが予測される、などの条件が挙げられる。   Note that the alarm generation requirement in this case includes conditions such as the presence of an object in the alarm area and the prediction that the object will enter the alarm area within a predetermined time.

この場合、より具体的には、前記警報発生要件設定手段は、前記停止車両分別検出装置の判定手段により前記検出された停止中の他車両が一時的な停止車両であると判定されたときには、前記停止中の他車両が検出されないか、または、前記検出された停止中の他車両が一時的な停止車両でないと判定されたときよりも前記警報領域を少なくとも前記自車両の幅方向に拡大するように設定することが好適である。   In this case, more specifically, when the alarm generation requirement setting unit determines that the other vehicle being stopped detected by the determination unit of the stopped vehicle classification detection device is a temporarily stopped vehicle, The warning area is expanded at least in the width direction of the own vehicle as compared with the case where it is determined that the stopped other vehicle is not detected or the detected stopped other vehicle is not a temporarily stopped vehicle. It is preferable to set so.

これによれば、自車両の前方に停止中の他車両が検出され、その他車両が一時的な停止車両であると判定されたとき、すなわち、人などの飛び出しの可能性が高まって、自車両の運転者が注意すべき周辺範囲が広がる状況では、停止中の他車両が検出されないか、または、前記検出された停止中の他車両が一時的な停止車両でないと判定されたときよりも前記警報領域を少なくとも前記自車両の幅方向に拡大するので、検出された対象物が、前記警報発生要件を満たすようになる機会を高めることができる。ひいては、自車両の運転者に対する警報の機会を増やし、該運転者の注意を効果的に喚起することができる。   According to this, when another vehicle that is stopped in front of the host vehicle is detected and it is determined that the other vehicle is a temporarily stopped vehicle, that is, the possibility of a person jumping out increases. In a situation where the surrounding area to be noted by the driver of the vehicle is wide, the stopped other vehicle is not detected, or the detected other vehicle that is stopped is determined not to be a temporarily stopped vehicle. Since the warning area is expanded at least in the width direction of the host vehicle, the chance that the detected object comes to satisfy the warning generation requirement can be increased. As a result, the chance of warning for the driver of the host vehicle can be increased, and the driver's attention can be effectively evoked.

なお、本発明の車両の周辺監視装置の第1および第2の態様においては、前記対象物は、少なくとも人を含むことが好ましい。   In the first and second aspects of the vehicle periphery monitoring device of the present invention, it is preferable that the object includes at least a person.

ただし、該対象物には、人以外の動物、他車両などを含めてもよく、複数種類の対象物を検出するようにしてもよい。対象物に他車両を含めた場合には、例えば前記停止車両分別検出装置により一時的な停止車両が検出されるということを前記警報発生要件として、運転者に対する警報を行なうようにしてもよい。   However, the object may include animals other than humans, other vehicles, etc., and a plurality of types of objects may be detected. When other vehicles are included in the object, for example, a warning to the driver may be issued based on the alarm generation requirement that the temporarily stopped vehicle is detected by the stopped vehicle classification detection device.

また、本発明の車両の周辺監視装置の第1および第2の態様においては、警報発生要件は、警報対象物の、自車両の前方の所定の警報領域に対する位置関係に関する要件に限られるものではなく、例えば複数種類の対象物(例えば人と他車両)との相互の空間的または時間的な関係に関する要件であってもよい。   In the first and second aspects of the vehicle periphery monitoring device of the present invention, the alarm generation requirement is not limited to the requirement related to the positional relationship of the alarm object with respect to the predetermined alarm area in front of the host vehicle. For example, it may be a requirement regarding a spatial or temporal relationship between a plurality of types of objects (for example, people and other vehicles).

また、本発明の車両の周辺監視装置の第1の態様と第2の態様とは併用してもよい。すなわち、前記停止車両分別検出装置の判定手段の判定結果に応じて、前記検出領域および警報発生要件の両者を可変的に設定するようにしてもよい。   Moreover, you may use together the 1st aspect and 2nd aspect of the periphery monitoring apparatus of the vehicle of this invention. That is, both the detection area and the alarm generation requirement may be variably set according to the determination result of the determination means of the stopped vehicle classification detection device.

本発明の一実施形態を以下に図1〜図9を参照して説明する。   An embodiment of the present invention will be described below with reference to FIGS.

まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(自車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。   First, with reference to FIG. 1 and FIG. 2, the system configuration | structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. FIG. 1 is a block diagram showing the overall configuration of the periphery monitoring device, and FIG. 2 is a perspective view showing the appearance of a vehicle (own vehicle) equipped with the periphery monitoring device. In FIG. 2, illustration of some components of the periphery monitoring device is omitted.

図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、自車両1の前方の画像を撮像する撮像装置としての2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3と、自車両10の走行速度(車速)を検出する車速センサ4と、自車両10のブレーキ操作(詳しくはブレーキペダルが操作されているか否か)を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な警報情報を出力するためのスピーカ6と、前記赤外線カメラ2R,2Lにより撮像された画像や視覚的な警報情報を表示するための表示装置7とが接続されている。   With reference to FIGS. 1 and 2, the periphery monitoring device of the present embodiment includes an image processing unit 1. The image processing unit 1 is connected with two infrared cameras 2R and 2L as imaging devices for capturing an image in front of the host vehicle 1, and the host vehicle 10 is used as a sensor for detecting the traveling state of the host vehicle 10. A yaw rate sensor 3 for detecting the yaw rate of the vehicle, a vehicle speed sensor 4 for detecting the traveling speed (vehicle speed) of the host vehicle 10, and a brake for detecting a brake operation of the host vehicle 10 (specifically, whether or not the brake pedal is operated). The sensor 5 is connected. Further, the image processing unit 1 includes a speaker 6 for outputting auditory alarm information such as sound, and a display device for displaying images taken by the infrared cameras 2R and 2L and visual alarm information. 7 is connected.

画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM)、画像メモリなどを含む電子回路により構成され、前記赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル化されて入力される。そして、画像処理ユニット1は、入力されたデータを基に、人(歩行者)などの対象物を検出する処理や、その検出した対象物に関する所定の警報発生要件が満たされるか否かを判定し、該警報発生要件が満たされる場合に前記スピーカ6や表示装置7を介して運転者に警報を発する処理などをマイクロコンピュータにより実行する。   Although not shown in detail, the image processing unit 1 is composed of an electronic circuit including an A / D conversion circuit, a microcomputer (CPU, RAM, ROM), an image memory, and the like. The infrared cameras 2R and 2L, the yaw rate sensor 3. Outputs (analog signals) of the vehicle speed sensor 4 and the brake sensor 5 are digitized and inputted via an A / D conversion circuit. Then, the image processing unit 1 determines whether a process for detecting an object such as a person (pedestrian) or a predetermined alarm generation requirement regarding the detected object is satisfied based on the input data. When the alarm generation requirement is satisfied, a process for issuing an alarm to the driver via the speaker 6 and the display device 7 is executed by the microcomputer.

従って、画像処理ユニット1は、本発明における対象物検出手段、警報発生手段としての機能を備えている。また、画像処理ユニット1は、本発明の停止車両分別検出装置としての機能(より詳しくは、停止車両検出手段、温度状態検出手段および判定手段の機能)を含んでいる。   Therefore, the image processing unit 1 has functions as the object detection means and alarm generation means in the present invention. Further, the image processing unit 1 includes a function as a stopped vehicle classification detection device of the present invention (more specifically, functions of a stopped vehicle detection means, a temperature state detection means, and a determination means).

図2に示すように、前記赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、自車両10の車幅方向の中心に対して左右対称である。そして、該赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように自車両10の前部に固定されている。なお、各赤外線カメラ2R,2Lは、遠赤外域に感度を有する撮像装置であり、それにより撮像される物体の温度が高いほど、その物体の画像の出力信号のレベルが高くなる(該物体の画像の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion (front grill portion in the figure) of the host vehicle 10 in order to image the front of the host vehicle 10. In this case, the infrared cameras 2R and 2L are respectively disposed at a position on the right side and a position on the left side of the center of the host vehicle 10 in the vehicle width direction. These positions are symmetrical with respect to the center of the host vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L have their optical axes extending in the front-rear direction of the host vehicle 10 in parallel with each other, and the heights of the respective optical axes from the road surface are equal to each other. It is fixed to the front of the. Each infrared camera 2R, 2L is an imaging device having sensitivity in the far-infrared region, and the higher the temperature of the object imaged by the infrared camera 2R, 2L, the higher the level of the output signal of the object image (the object's image). (The brightness of the image is increased).

また、前記表示装置7は、本実施形態では、例えば自車両10のフロントウィンドウに画像などの情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7は、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを含んでもよい。   In the present embodiment, the display device 7 includes a head-up display 7a (hereinafter referred to as a HUD 7a) that displays information such as an image on the front window of the host vehicle 10, for example. The display device 7 may be a display provided integrally with a meter that displays a traveling state such as the vehicle speed of the host vehicle 10 in place of the HUD 7a or together with the HUD 7a, or a display provided in an in-vehicle navigation device. May be included.

次に、本実施形態の周辺監視装置の全体的動作を図3および図4のフローチャートを参照して説明する。なお、図3および図4のフローチャートの処理のうちの多くの処理は、例えば前記特許文献2の図3に記載されている処理と同じであるので、その同じ処理については、本明細書での詳細な説明は省略する。   Next, the overall operation of the periphery monitoring apparatus of this embodiment will be described with reference to the flowcharts of FIGS. Note that many of the processes in the flowcharts of FIGS. 3 and 4 are the same as the processes described in FIG. 3 of Patent Document 2, for example. Detailed description is omitted.

まず、画像処理ユニット1は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像を取得して(STEP1)、A/D変換し(STEP2)、それぞれの画像を画像メモリに格納する(STEP3)。これにより、各赤外線カメラ2R,2Lにより撮像された画像が画像処理ユニット1に取り込まれる。以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像という。これらの右画像および左画像は、いずれもグレースケール画像である。なお、STEP1〜3の処理は、前記特許文献2の図3のS1〜S3の処理と同じである。   First, the image processing unit 1 acquires infrared images that are output signals of the infrared cameras 2R and 2L (STEP 1), performs A / D conversion (STEP 2), and stores each image in an image memory (STEP 3). ). As a result, images captured by the infrared cameras 2R and 2L are taken into the image processing unit 1. Hereinafter, an image obtained from the infrared camera 2R is referred to as a right image, and an image obtained from the infrared camera 2L is referred to as a left image. These right image and left image are both grayscale images. Note that the processing of STEPs 1 to 3 is the same as the processing of S1 to S3 in FIG.

次いで、画像処理ユニット1は、前記右画像および左画像のうちの一方を基準画像とし、この基準画像を2値化する(STEP4)。基準画像は、本実施形態では右画像である。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。   Next, the image processing unit 1 uses one of the right image and the left image as a reference image, and binarizes this reference image (STEP 4). The reference image is a right image in the present embodiment. In this binarization process, the luminance value of each pixel of the reference image is compared with a predetermined luminance threshold value, and an area (relatively bright area) having a luminance value higher than the predetermined luminance threshold value in the reference image. This is a process of setting “1” (white) and setting an area having a luminance value lower than the luminance threshold (a relatively dark area) to “0” (black). Hereinafter, an image (monochrome image) obtained by the binarization process is referred to as a binarized image. In the binarized image, an area “1” is referred to as a high luminance area. The binarized image is stored in the image memory separately from the grayscale image (right image and left image).

補足すると、本実施形態では、上記2値化処理は、基準画像のうち、後述するSTEP18,19で設定される対象物抽出画像領域で行なわれる。該対象物抽出画像領域は、本実施形態では、基準画像の全体の領域と、それよりも小さい領域とのうちのいずれかに設定される。   Supplementally, in the present embodiment, the binarization process is performed in an object extraction image area set in STEPs 18 and 19 described later in the reference image. In the present embodiment, the object extraction image area is set to either the entire area of the reference image or an area smaller than the entire area.

次いで、画像処理ユニット1は、前記2値化画像に対してSTEP5〜7の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP5)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP6)、そのライン群のそれぞれを対象物として抽出する(STEP7)。   Next, the image processing unit 1 performs the processing of STEPs 5 to 7 on the binarized image, and extracts an object (more precisely, an image portion corresponding to the object) from the binarized image. That is, the pixel group constituting the high luminance area of the binarized image is classified into lines having a width of one pixel in the vertical direction (y direction) of the reference image and extending in the horizontal direction (x direction). Each line is converted into run-length data composed of coordinates and length (number of pixels) of the position (two-dimensional position on the reference image) (STEP 5). Of the lines represented by the run length data, labels (identifiers) are attached to the respective line groups that overlap in the vertical direction of the reference image (STEP 6), and each of the line groups is extracted as an object. (STEP 7).

なお、STEP5〜7の処理により抽出される対象物には、一般には、人(歩行者)だけでなく、他車両などの人口構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。   The objects extracted by the processing in STEPs 5 to 7 generally include not only people (pedestrians) but also artificial structures such as other vehicles. In addition, a plurality of local parts of the same object may be extracted as the target object.

次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP8)。なお、各対象物の重心の位置は、該対象物に含まれるランレングスデータの各ラインの位置(各ラインの中心位置)の座標に該ラインの長さを乗じたものを、該対象物に含まれるランレングスデータの全てのラインについて加算し、その加算結果を該対象物の面積により除算することにより求められる。また、各対象物の重心の代わりに、該対象物の外接四角形の重心(中心)の位置を求めてもよい。   Next, the image processing unit 1 obtains the position of the center of gravity of each object extracted as described above (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle (STEP 8). The position of the center of gravity of each object is obtained by multiplying the coordinates of the position of each line (the center position of each line) of the run length data included in the object by the length of the line. It is obtained by adding all the lines of included run length data and dividing the addition result by the area of the object. Further, instead of the center of gravity of each object, the position of the center (center) of the circumscribed rectangle of the object may be obtained.

次いで、画像処理ユニット1は、前記STEP7で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP9)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP7の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP7の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが互いに同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP6で付したラベル)が対象物Aのラベルと同じラベルに変更される。   Next, the image processing unit 1 traces the object extracted in STEP 7 for the time, that is, recognizes the same object for each calculation processing period of the image processing unit 1 (STEP 9). In this processing, when the object A is extracted by the processing of STEP 7 at a time (discrete system time) k in a certain arithmetic processing cycle, and the object B is extracted by the processing of STEP 7 at the time k + 1 of the next arithmetic processing cycle. The identity of these objects A and B is determined. This identity determination may be performed based on, for example, the shape and size of the objects A and B on the binarized image, the correlation of the luminance distribution on the reference image (grayscale image), and the like. . When it is determined that the objects A and B are the same, the label of the object B extracted at time k + 1 (the label attached in STEP 6) is changed to the same label as the label of the object A. The

なお、前記したSTEP5〜9の処理は、前記特許文献2の図3のS5〜S9の処理と同じである。また、STEP1〜9の処理により、本発明における対象物検出手段が構成される。   Note that the processing in STEPs 5 to 9 described above is the same as the processing in S5 to S9 in FIG. Moreover, the object detection means in this invention is comprised by the process of STEP1-9.

次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP10)。なお、このSTEP10では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。   Next, the image processing unit 1 reads the outputs (vehicle speed detection value and yaw rate detection value) of the vehicle speed sensor 4 and the yaw rate sensor 5 (STEP 10). In STEP 10, the turning angle (azimuth angle) of the host vehicle 10 is also calculated by integrating the read detection value of the yaw rate.

一方、画像処理ユニット1は、STEP9,10の処理と並行して、STEP11〜13の処理を実行する。このSTEP11〜13の処理は、STEP7で抽出した各対象物の自車両10からの距離を求める処理であり、前記特許文献2の図3のS11〜S13の処理と同じである。その処理を概略的に説明すると、まず、右画像(基準画像)のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP11)。   On the other hand, the image processing unit 1 executes the processes of STEPs 11 to 13 in parallel with the processes of STEPs 9 and 10. The processing of STEP 11 to 13 is processing for obtaining the distance of each object extracted in STEP 7 from the host vehicle 10, and is the same as the processing of S11 to S13 of FIG. The process is schematically described. First, an area corresponding to each object (for example, a circumscribed square area of the object) in the right image (reference image) is extracted as a search image R1 (STEP 11).

次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP12)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP12の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。   Next, in the left image, a search area R2 that is an area for searching for the same object as the object included in the search image R1 of the right image is set, and the correlation with the search image R1 is set in the search area R2. The region having the highest probability is extracted as a corresponding image R3 that is an image corresponding to the search image R1 (an image equivalent to the search image R1) (STEP 12). In this case, an area having a luminance distribution that most closely matches the luminance distribution of the search image R1 of the right image is extracted as the corresponding image R3 from the search area R2 of the left image. Note that the processing in STEP 12 is performed using a grayscale image, not a binarized image.

次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP13)。距離zは、次式(1)により算出される。   Next, the number of pixels of the difference between the lateral position (x-direction position) of the center of gravity of the search image R1 in the right image and the lateral position (x-direction position) of the center of gravity of the corresponding image R3 in the left image is defined as parallax Δd. The distance z of the object from the host vehicle 10 (the distance in the front-rear direction of the host vehicle 10) is calculated using the parallax Δd (STEP 13). The distance z is calculated by the following equation (1).


z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。

z = (f × D) / (Δd × p) (1)

Note that f is the focal length of the infrared cameras 2R and 2L, D is the base length (interval of the optical axis) of the infrared cameras 2R and 2L, and p is the pixel pitch (length of one pixel).

以上がSTEP11〜13の処理の概要である。なお、STEP11〜13の処理は、前記STEP7で抽出された各対象物に対して実行される。   The above is the outline of the processing of STEPs 11 to 13. In addition, the process of STEP11-13 is performed with respect to each target object extracted by said STEP7.

前記STEP10およびSTEP13の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP14)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。   After the processing of STEP 10 and STEP 13, the image processing unit 1 next calculates a real space position that is a position (relative position with respect to the host vehicle 10) of each object in the real space (STEP 14). Here, as shown in FIG. 2, the real space position is a position (X, Y, Z) in the real space coordinate system (XYZ coordinate system) set with the midpoint of the attachment position of the infrared cameras 2R, 2L as the origin. ). The X direction and the Y direction of the real space coordinate system are the vehicle width direction and the vertical direction of the host vehicle 10, respectively. These X direction and Y direction are the x direction (lateral direction) and y of the right image and the left image, respectively. It is the same direction as the direction (vertical direction). The Z direction in the real space coordinate system is the front-rear direction of the host vehicle 10. Then, the real space position (X, Y, Z) of the object is calculated by the following equations (2), (3), (4).


X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。

X = x × z × p / f (2)
Y = y × z × p / f (3)
Z = z (4)

Note that x and y are the x-coordinate and y-coordinate of the object on the reference image.

次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP10で求めた回頭角の時系列データに応じて補正する(STEP15)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。   Next, the image processing unit 1 compensates for the influence of the change in the turning angle of the host vehicle 10 and increases the accuracy of the real space position of the target object, so that the real space position (X, Y, Z) of the target object is increased. The position X in the X direction is corrected according to the time-series data of the turning angle obtained in STEP 10 from the value obtained by the above equation (2) (STEP 15). Thereby, the real space position of the object is finally obtained. In the following description, “the real space position of the object” means the real space position of the object subjected to this correction.

なお、STEP14,15の処理は、前記特許文献1の図3のS14、S15の処理と同じである。   Note that the processing in STEPs 14 and 15 is the same as the processing in S14 and S15 in FIG.

次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP16)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の自車両10に対する相対速度ベクトルに比例する。なお、STEP16の処理は、前記特許文献1の図3のS16の処理と同じである。   Next, the image processing unit 1 obtains a movement vector of the object relative to the host vehicle 10 (STEP 16). Specifically, a straight line that approximates time-series data in a predetermined period (a period from the current time to a predetermined time) of the real space position of the same object is obtained, and the straight line at the time before the predetermined time is obtained. A vector from the position (point) of the object toward the position (point) of the object on the straight line at the current time is obtained as a movement vector of the object. This movement vector is proportional to the relative velocity vector of the object with respect to the host vehicle 10. Note that the processing of STEP 16 is the same as the processing of S16 of FIG.

次いで、画像処理ユニット1は、自車両10の前方(より詳しくは前記STEP7で対象物の抽出を行なった前記対象物抽出画像領域に対応する自車両10の前方の空間的領域)に、一時的な停止車両が存在するか否かを判断する(STEP17)。そして、このSTEP17の判断結果に応じて、後述する警報領域の幅と、次回以降の前記STEP4の処理で2値化を行なう対象物抽出画像領域とを設定する(STEP18、19)。さらに、画像処理ユニット1は、抽出された対象物が所定の警報発生要件を満たすか否かを判断する警報判定処理を実行する(STEP20)。なお、STEP17〜20の処理の詳細は後述する。   Next, the image processing unit 1 temporarily moves in front of the host vehicle 10 (more specifically, a spatial region in front of the host vehicle 10 corresponding to the object extraction image region in which the target is extracted in STEP 7). It is determined whether or not there is a stationary vehicle (STEP 17). Then, in accordance with the determination result of STEP 17, a width of an alarm region described later and an object extraction image region to be binarized in the subsequent processing of STEP 4 are set (STEPs 18 and 19). Further, the image processing unit 1 executes an alarm determination process for determining whether or not the extracted object satisfies a predetermined alarm generation requirement (STEP 20). Details of the processing of STEPs 17 to 20 will be described later.

そして、画像処理ユニット1は、STEP20の警報判定処理において、いずれの対象物も警報発生要件を満たさない(警報発生要件に該当する対象物が存在しない)と判断した場合(STEP20の判断結果がNOとなる場合)には、前記STEP1からの処理を再開する。また、STEP20で、いずれかの対象物が警報発生要件を満たすと判断した場合(STEP20の判断結果がNOとなる場合)には、STEP21に進んで、警報発生要件を満たす対象物に関する実際の警報を行なうべきか否かの判定を行なう警報出力判定処理を実行する(STEP21)。この警報出力判定処理では、前記ブレーキセンサ5の出力から、運転者による自車両10のブレーキ操作がなされていることが確認され、且つ、自車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、警報を行なわないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、自車両10の減速加速度が所定の閾値以下である場合には、警報を行なうべきと判定される。   Then, the image processing unit 1 determines in the alarm determination process of STEP 20 that none of the objects satisfies the alarm generation requirement (there is no object corresponding to the alarm generation requirement) (the determination result of STEP 20 is NO) In such a case, the processing from STEP1 is resumed. If it is determined in STEP 20 that any of the objects satisfies the alarm generation requirement (when the determination result in STEP 20 is NO), the process proceeds to STEP 21 and an actual alarm regarding the object that satisfies the alarm generation requirement. A warning output determination process for determining whether or not should be performed is executed (STEP 21). In this alarm output determination process, it is confirmed from the output of the brake sensor 5 that the driver has operated the brake of the host vehicle 10, and the deceleration acceleration of the host vehicle 10 (the acceleration in the vehicle speed decreasing direction is corrected). ) Is larger than a predetermined threshold (> 0), it is determined that no alarm is given. In addition, when the driver does not perform a brake operation or when the deceleration acceleration of the host vehicle 10 is equal to or less than a predetermined threshold even if the brake operation is performed, it is determined that an alarm should be issued. .

そして、画像処理ユニット1は、警報を行なうべきと判定した場合(STEP21の判断結果がYESとなる場合)には、前記スピーカ6と表示装置7とによる警報を自車両10の運転者に対して発する警報発生処理を実行し(STEP22)、さらにSTEP1からの処理を再開する。この警報発生処理では、例えば表示装置7に前記基準画像を表示すると共に、その基準画像中の、前記警報発生要件を満たす対象物の画像を強調的に表示する。さらに、そのような対象物が存在することをスピーカ6から運転者に音声案内する。これにより、該対象物に対する運転者の注意が喚起される。なお、運転者に対する警報は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。   When the image processing unit 1 determines that an alarm should be issued (when the determination result in STEP 21 is YES), the image processing unit 1 issues an alarm by the speaker 6 and the display device 7 to the driver of the host vehicle 10. The alarm generation process to be issued is executed (STEP 22), and the process from STEP 1 is resumed. In this alarm generation process, for example, the reference image is displayed on the display device 7, and an image of an object that satisfies the alarm generation requirement in the reference image is highlighted. Furthermore, a voice guidance is provided from the speaker 6 to the driver that such an object exists. This alerts the driver to the object. Note that the warning for the driver may be performed by only one of the speaker 6 and the display device 7.

また、STEP21で警報を行なわないと判断したとき(全ての対象物について警報を行なわないと判断したとき)には、STEP21の判断結果がNOとなり、この場合には、そのままSTEP1からの処理が再開される。   Further, when it is determined in STEP 21 that no warning is given (when it is determined that no warning is given for all objects), the determination result in STEP 21 is NO, and in this case, the processing from STEP 1 is resumed as it is. Is done.

以上が本実施形態の周辺監視装置の全体的作動である。   The above is the overall operation of the periphery monitoring device of this embodiment.

次に、説明を後回しにした前記STEP17〜STEP20の処理を以下に詳細に説明する。なお、以下の説明では、適宜、図5に示す状況を例に採って具体的な説明をする。この例では、自車両10の斜め左前方に、自車両10の走行車線21上で停止している他車両22が存在し、対向車線23上で、自車両10に近づく向きに走行している他車両24が存在する。さらに、自車両10の斜め左前方に、斜線付きの丸で表す人(歩行者)P1,P2が存在している。また、赤外線カメラ2R,2Lにより撮像される自車両10の前方の領域(以下、撮像監視領域という)が、平面視で、概ね図5の三角形abc内の領域であるとし、この撮像監視領域abc内に前記他車両22,24および人P1,P2が存在している。   Next, the processing of STEP17 to STEP20 which will be described later will be described in detail below. In the following description, a specific description will be given by taking the situation shown in FIG. 5 as an example as appropriate. In this example, another vehicle 22 that is stopped on the traveling lane 21 of the host vehicle 10 exists diagonally left front of the host vehicle 10 and is traveling in a direction approaching the host vehicle 10 on the opposite lane 23. There is another vehicle 24. Furthermore, people (pedestrians) P1 and P2 represented by circles with diagonal lines exist diagonally left front of the host vehicle 10. Further, an area in front of the host vehicle 10 (hereinafter referred to as an imaging monitoring area) imaged by the infrared cameras 2R and 2L is generally an area within the triangle abc in FIG. The other vehicles 22 and 24 and the persons P1 and P2 exist inside.

補足すると、撮像監視領域abcは、より詳しくは赤外線カメラ2R,2Lにより撮像される自車両10の前方の空間的領域(赤外線カメラ2R,2Lの視野角内の領域)のうち、自車両10からの距離(実空間座標系のZ方向の距離)が所定値以下の領域である。該撮像監視領域abcの線分ab,acがなす角度が赤外線カメラ2R,2Lの視野角に相当している。本実施形態で、対象物として抽出され得る物体は、この撮像監視領域abc内に存在する物体である。   Supplementally, the imaging monitoring area abc is more specifically from the own vehicle 10 in the spatial area in front of the own vehicle 10 (the area within the viewing angle of the infrared cameras 2R and 2L) imaged by the infrared cameras 2R and 2L. Is a region whose distance (distance in the Z direction of the real space coordinate system) is a predetermined value or less. The angle formed by the line segments ab and ac in the imaging monitoring area abc corresponds to the viewing angle of the infrared cameras 2R and 2L. In the present embodiment, an object that can be extracted as an object is an object that exists in the imaging monitoring area abc.

図5に示すような状況において、前記右画像および左画像のうちの例えば右画像(基準画像)は、それを概略的に図示すると、図6に示すように他車両22,24および人P1,P2が含まれる画像となる。なお、図6に示す画像は、説明の便宜上、各他車両22,24や人P1,P2などを、明確に輪郭が現れるような画像として表現している。ただし、該画像は、グレースケール画像であるので、各他車両22,24や人P1,P2などの輪郭が必ずしも明確にはならない。例えば、他車両、人などの局所的な部分だけが鮮明な画像となるような場合もある。   In the situation shown in FIG. 5, for example, the right image (reference image) of the right image and the left image is schematically illustrated. As shown in FIG. 6, as shown in FIG. The image includes P2. In addition, the image shown in FIG. 6 represents each other vehicle 22, 24, person P1, P2, etc. as an image with which a clear outline appears for convenience of explanation. However, since the image is a gray scale image, the contours of the other vehicles 22 and 24 and the people P1 and P2 are not always clear. For example, only a local part such as another vehicle or a person may be a clear image.

以上の説明を前提として、まず、STEP17〜20の処理のうちのSTEP17の処理(一時的な停止車両が存在するか否かの判断処理)を説明する。図8はこの処理を示すフローチャートである。なお、STEP17の処理は、本発明の停止車両分別検出装置の停止車両検出手段、温度状態検出手段、判定手段を構成する処理である。   Based on the above description, first, the processing of STEP 17 (processing for determining whether or not a temporarily stopped vehicle exists) out of the processing of STEPs 17 to 20 will be described. FIG. 8 is a flowchart showing this process. The process of STEP 17 is a process that constitutes a stopped vehicle detection unit, a temperature state detection unit, and a determination unit of the stopped vehicle classification detection device of the present invention.

図8を参照して、STEP17の処理では、まず、抽出された対象物のうちに他車両が存在するか否か(他車両に該当する対象物が存在するか否か)が判断される(STEP101)。この判断処理では、抽出された対象物の中から、他車両(もしくはその局所部分)を検出する処理が実行され、その検出処理により他車両が検出されない場合に、他車両が存在しないと判断される。   With reference to FIG. 8, in the process of STEP 17, it is first determined whether or not there is another vehicle among the extracted objects (whether or not there is an object corresponding to the other vehicle) ( (STEP 101). In this determination process, a process of detecting another vehicle (or its local part) is executed from the extracted objects, and if no other vehicle is detected by the detection process, it is determined that no other vehicle exists. The

この場合、他車両を検出する処理は、公知の手法を使用すればよい。本実施形態では、例えば前記特許文献1の段落0038〜0053に記載されている手法が用いられる。その手法は、本明細書での詳細な説明は省略するが、その概略は次の通りである。   In this case, the process for detecting the other vehicle may use a known method. In the present embodiment, for example, the technique described in paragraphs 0038 to 0053 of Patent Document 1 is used. The method is not described in detail in this specification, but the outline is as follows.

すなわち、前記STEP8で2値化画像から抽出された対象物の中に、対称な位置関係を有する対象物の組(以下、対称性対象物対という)が探索される。この対称性対象物対は、自車両10からの距離(実空間座標系でのZ方向位置)と、高さ(実空間座標系でのY方向位置)とが互いにほぼ同一で、且つ、それらの間隔(実空間座標系でのX方向の間隔)が一般的な他車両の車幅相当の所定範囲内になるような対象物の組であり、他車両の左右のヘッドライトの組、もしくは左右のテールライトの組に相当するものである。   That is, a set of objects having a symmetrical positional relationship (hereinafter referred to as a symmetrical object pair) is searched for among the objects extracted from the binarized image in STEP8. The symmetry object pair has a distance (Z-direction position in the real space coordinate system) from the host vehicle 10 and a height (Y-direction position in the real space coordinate system) that are substantially the same as each other. Is a set of objects such that the interval (space in the X direction in the real space coordinate system) is within a predetermined range corresponding to the vehicle width of a general other vehicle, This corresponds to a pair of left and right taillights.

この場合、前記図5に示す状況において、自車両10の斜め左前方の他車両22が、例えば原動機(通常はエンジン)の運転を行なったまま、一時的に停止している車両であるとした場合、この他車両22に関して、前記2値化画像内で、例えば図7に示す対象物OBJ1〜OBJ5が抽出される。OBJ1,2は、他車両22のテールランプに対応し、OBJ3は他車両22の排気管付近に相当し、OBJ4,5は、他車両22の左右の後輪のタイヤに相当する。   In this case, in the situation shown in FIG. 5, it is assumed that the other vehicle 22 diagonally left front of the host vehicle 10 is a vehicle that is temporarily stopped, for example, while driving a motor (usually an engine). In this case, for this other vehicle 22, for example, objects OBJ1 to OBJ5 shown in FIG. 7 are extracted in the binarized image. OBJ1 and 2 correspond to the tail lamps of the other vehicle 22, OBJ3 corresponds to the vicinity of the exhaust pipe of the other vehicle 22, and OBJ4 and 5 correspond to the left and right rear tires of the other vehicle 22.

このとき、これらの対象物OBJ1〜OBJ5のうち、他車両22の左右のテールライトの組に対応して、OBJ1,2が対称性対象物対として抽出される。   At this time, among these objects OBJ1 to OBJ5, OBJ1 and OBJ1 and OBJ1 and OBJ2 are extracted as symmetrical object pairs corresponding to the pair of left and right taillights of the other vehicle 22.

そして、対称性対象物対が抽出されたときには、前記右画像(基準画像)内で、該対称性対象物対の上方(他車両のウィンドウシールドに相当する箇所)に所定の探索領域MASK1(図7を参照)を設定し、この探索領域MASK1の部分の距離(実空間座標系での自車両10からの距離)と平均輝度値とを算出し、これらの算出値を基に、対称性対象物対の上側に他車両のウィンドウシールドが存在するか否かを判断する。具体的には、探索領域MASK1の部分の距離が対称性対象物対の自車両10からの距離とほぼ同じで、且つ、平均輝度値が所定値よりも小さいときには、該基準画像上の探索領域MASK1の箇所に他車両のウィンドウシールドが存在すると判断する。このように対称性対象物対の上側にウィンドウシールドの存在が確認された場合には、該対称性対象物対の箇所に他車両が存在すると判断され、これにより該他車両の存在が検出される。   When a symmetrical object pair is extracted, a predetermined search area MASK1 (see FIG. 5) above the symmetrical object pair (a part corresponding to a window shield of another vehicle) in the right image (reference image). 7), and calculates the distance (distance from the vehicle 10 in the real space coordinate system) and the average luminance value of the search area MASK1, and based on these calculated values, the object of symmetry It is determined whether or not a window shield of another vehicle exists above the object pair. Specifically, when the distance of the portion of the search area MASK1 is substantially the same as the distance from the host vehicle 10 of the symmetrical object pair and the average luminance value is smaller than a predetermined value, the search area on the reference image It is determined that the window shield of the other vehicle exists at the location of MASK1. When the presence of the window shield is confirmed above the symmetrical object pair in this way, it is determined that another vehicle exists at the location of the symmetrical object pair, thereby detecting the presence of the other vehicle. The

なお、対称性対象物対が抽出されなかった場合には、さらに各対象物の真上に探索領域MASK2(図示省略)を設定する。そして、この探索領域MASK2に対応する自車両10からの距離と、該探索領域MASK2の左寄りの部分および右寄り部分の平均輝度値とを基に、ウィンドウシールドの存在の有無を判断し、ウィンドウシールドの存在が確認された場合には、該対象物を含む他車両が存在すると判断される。この場合、ウィンドウシールドの存在の確認と同時に、該ウィンドウシールドが、探索領域MASK2の左寄り部分および右寄りの部分のいずれに存在するかの判断も行なわれる。また、ウィンドウシールドの存在が確認されなかった場合には、前記STEP7で抽出された対象物のうちに他車両が存在しないと判断される。   If a symmetrical object pair is not extracted, a search area MASK2 (not shown) is set immediately above each object. Based on the distance from the host vehicle 10 corresponding to the search area MASK2 and the average luminance values of the left and right portions of the search area MASK2, the presence or absence of the window shield is determined, and the window shield When the presence is confirmed, it is determined that there is another vehicle including the object. In this case, simultaneously with the confirmation of the presence of the window shield, it is also determined whether the window shield exists in the left-side portion or the right-side portion of the search area MASK2. If the presence of the window shield is not confirmed, it is determined that no other vehicle exists among the objects extracted in STEP 7.

以上が、STEP101の処理の概略である。このSTEP101の処理により、例えば前記図5に示す状況では、他車両22,24の存在が検出される。なお、他車両の検出は、上記の手法に限らず、他の公知の手法(例えばテンプレートを使用したパターンマッチングの手法など)を用いてもよい。また、可視光カメラやレーダなどを併用して他車両を検出するようにしてもよい。   The above is the outline of the processing of STEP101. By the processing of STEP 101, for example, in the situation shown in FIG. 5, the presence of the other vehicles 22, 24 is detected. The detection of other vehicles is not limited to the above method, and other known methods (for example, a pattern matching method using a template) may be used. In addition, other vehicles may be detected using a visible light camera, a radar, or the like.

画像処理ユニット1は、STEP101で他車両が検出されなかった場合(STEP101の判断結果がNOである場合)には、一時的な停止車両は存在しないと判断し(STEP105)、STEP17の処理を終了する。また、少なくとも1つの他車両が検出された場合(STEP101の判断結果がYESである場合)には、次に、その検出された他車両が停止しているか否かを判断する(STEP102)。   When no other vehicle is detected in STEP 101 (when the determination result in STEP 101 is NO), the image processing unit 1 determines that there is no temporarily stopped vehicle (STEP 105), and ends the processing in STEP 17. To do. When at least one other vehicle is detected (when the determination result in STEP 101 is YES), it is next determined whether or not the detected other vehicle is stopped (STEP 102).

この判断は検出された全ての他車両に対して次のように行なわれる。すなわち、各他車両に含まれる少なくとも1つの対象物(例えば前記図7のOBJ1もしくはOBJ2)の自車両10に対する相対位置(対象物の実空間位置)、あるいは、自車両10からの前後方向の距離(実空間座標系での対象物のZ方向の位置)の時系列データを基に、該他車両の自車両10に対する相対速度を算出する。そして、その相対速度が、自車両10に近づく向きの速度で、且つ、その大きさ(絶対値)が、前記車速センサ4により得られる自車両10の車速の検出値とほぼ同一であるとき(該検出値との差の絶対値が0近傍の所定値以下であるとき)に、該他車両が停止していると判断する。そして、これ以外の場合には、該他車両は停止していないと判断する。なお、他車両の相対速度は、レーダなどを使用して測定するようにしてもよい。   This determination is performed for all detected other vehicles as follows. That is, the relative position (actual space position of the object) of at least one object (for example, OBJ1 or OBJ2 in FIG. 7) included in each other vehicle with respect to the own vehicle 10 or the distance in the front-rear direction from the own vehicle 10 Based on the time-series data of (the position in the Z direction of the object in the real space coordinate system), the relative speed of the other vehicle with respect to the host vehicle 10 is calculated. When the relative speed is a speed toward the host vehicle 10 and the magnitude (absolute value) is substantially the same as the detected value of the vehicle speed of the host vehicle 10 obtained by the vehicle speed sensor 4 ( When the absolute value of the difference from the detected value is equal to or less than a predetermined value near 0), it is determined that the other vehicle is stopped. In other cases, it is determined that the other vehicle has not stopped. Note that the relative speed of the other vehicle may be measured using a radar or the like.

上記STEP101、102の処理は、本発明の停止車両分別検出装置の停止車両検出手段に相当するものであり、これらのSTEP101、102の処理により停止中の他車両が検出されることとなる。   The processing of STEP 101 and 102 corresponds to the stopped vehicle detection means of the stopped vehicle classification detection device of the present invention, and other vehicles that are stopped are detected by the processing of STEP 101 and 102.

画像処理ユニット1は、STEP102で、他車両が停止していない(STEP101で検出された全ての他車両が停止していない)と判断した場合(STEP102の判断結果がNOとなる場合)には、前記STEP105に進んで、一時的な停止車両は存在しないと判断し、STEP17の処理を終了する。また、検出された他車両のうちの少なくとも1つの他車両が停止していると判断した場合(STEP102の判断結果がNOとなる場合)には、次に、該他車両が一時的な停止車両であるか否かを判断する(STEP103)。   When the image processing unit 1 determines in STEP 102 that the other vehicle has not stopped (all other vehicles detected in STEP 101 have not stopped) (when the determination result in STEP 102 is NO), Proceeding to STEP 105, it is determined that there is no temporarily stopped vehicle, and the processing of STEP 17 is terminated. Further, when it is determined that at least one of the detected other vehicles is stopped (when the determination result in STEP 102 is NO), the other vehicle is temporarily stopped. It is determined whether or not (STEP 103).

この処理は、次のように行なわれる。すなわち、前記図7を参照して、画像処理ユニット1は、停止していると判断された各他車両に関し、前記基準画像(グレースケール画像)上で、該他車両の所定の部位の画像が含まれると推測される複数(本実施形態では4個)の領域AREA1〜AREA4を輝度判定領域として設定する。ここで、輝度判定領域AREA1,2はそれぞれ、その中に他車両の排気管部分の画像、他車両の原動機搭載部の画像が含まれるように設定され、輝度判定領域AREA3,4は、他車両の左右のタイヤがそれぞれが含まれるように設定される。なお、これらの輝度判定領域AREA1〜AREA4は、例えば前記STEP101で抽出した対称性対象物対OBJ1,2の基準画像上での位置や、該対称性対象物対OBJ1,2の自車両10からの距離および高さを基に、他車両の排気管部分などの位置を概略的に推定し、その推定位置付近に設定すればよい。また、これらの輝度判定領域AREA1〜4のサイズは、自車両10から他車両までの距離が長いほど、小さくなるように該距離に応じて設定される。   This process is performed as follows. That is, referring to FIG. 7, the image processing unit 1 relates to each other vehicle determined to be stopped, and an image of a predetermined part of the other vehicle is displayed on the reference image (grayscale image). A plurality of (four in this embodiment) areas AREA1 to AREA4 that are estimated to be included are set as luminance determination areas. Here, the luminance determination areas AREA 1 and 2 are set so that the image of the exhaust pipe portion of the other vehicle and the image of the prime mover mounting portion of the other vehicle are included therein, and the luminance determination areas AREA 3 and 4 The left and right tires are set to be included. Note that these brightness determination areas AREA1 to AREA4 are, for example, the positions of the symmetrical object pairs OBJ1 and OBJ1 and OBJ2 extracted in STEP 101 on the reference image, and the symmetrical object pairs OBJ1 and OBJ1 from the host vehicle 10. Based on the distance and height, the position of the exhaust pipe portion of the other vehicle may be roughly estimated and set near the estimated position. In addition, the sizes of the luminance determination areas AREA1 to AREA4 are set according to the distance so as to decrease as the distance from the host vehicle 10 to the other vehicle increases.

そして、画像処理ユニット1は、基準画像(グレースケール画像)上で、上記各輝度判定領域AREA1〜AREA4における輝度平均値を求める。ここで、基準画像は、遠赤外画像であるので、各輝度判定領域AREA1〜AREA4における輝度平均値は、各輝度判定領域AREA1〜AREA4に存在する対象物の温度(平均温度)に応じたものとなり、該温度が高いほど、輝度平均値も高くなるまた、他車両が一時的な停止車両である場合、該他車両の原動機(通常はエンジン)の運転に伴う熱、あるいは、該他車両の停止前の走行時のタイヤと路面との間の摩擦熱によって、他車両の排気管部分、原動機搭載部分、タイヤ部分の温度が他車両の他の部位の温度に比べて高温になっている。従って、これらの高温部分が、前記基準画像上の、前記各輝度判定領域AREA1〜AREA4に存在する場合、各輝度判定領域AREA1〜AREA4の輝度平均値は、比較的高い値となる。   Then, the image processing unit 1 calculates the luminance average value in each of the luminance determination areas AREA1 to AREA4 on the reference image (grayscale image). Here, since the reference image is a far-infrared image, the average luminance value in each luminance determination area AREA1 to AREA4 corresponds to the temperature (average temperature) of the object existing in each luminance determination area AREA1 to AREA4. The higher the temperature, the higher the brightness average value. Also, when the other vehicle is a temporarily stopped vehicle, the heat associated with the operation of the motor (usually the engine) of the other vehicle, or the other vehicle's Due to frictional heat between the tire and the road surface during traveling before the stop, the temperatures of the exhaust pipe portion, the prime mover mounting portion, and the tire portion of the other vehicle are higher than the temperatures of other portions of the other vehicle. Therefore, when these high-temperature portions are present in the luminance determination areas AREA1 to AREA4 on the reference image, the average luminance values of the luminance determination areas AREA1 to AREA4 are relatively high.

そこで、本実施形態では、各輝度判定領域AREA1〜AREA4の輝度平均値を、それぞれに対応する他車両の部位の温度状態を示すものとして求める。そして、この求めた輝度平均値のそれぞれを所定の輝度閾値と比較し、輝度判定領域AREA1〜AREA4のいずれかの輝度平均値が輝度閾値よりも高い場合に、当該他車両が、一時的な停止車両であると判断する。また、いずれの輝度判定領域AREA1〜AREA4についても、その輝度平均値が輝度閾値以下である場合には、当該他車両は、一時的な停止車両でないと判断する。   Therefore, in the present embodiment, the average luminance value of each of the luminance determination areas AREA1 to AREA4 is obtained as indicating the temperature state of the corresponding part of the other vehicle. Then, each of the obtained luminance average values is compared with a predetermined luminance threshold value, and if any luminance average value in the luminance determination areas AREA1 to AREA4 is higher than the luminance threshold value, the other vehicle is temporarily stopped. Judged to be a vehicle. Further, in any of the luminance determination areas AREA1 to AREA4, when the average luminance value is equal to or lower than the luminance threshold, it is determined that the other vehicle is not a temporarily stopped vehicle.

具体的には、前記図5の例において、自車両10の斜め左前方の他車両22が、一時的な停止車両である場合には、前記輝度判定領域AREA1〜AREA4のうちのAREA1、3、4のいずれかの輝度平均値が輝度閾値を超えるものとなる。このため、該他車両22が、一時的な停止車両であると判断される。なお、図5の例では、他車両22は、背面視の車両となるため、原動機搭載部に対応する輝度判定領域AREA2の輝度閾値は、一般には、輝度閾値よりも低くなる。   Specifically, in the example of FIG. 5, when the other vehicle 22 diagonally left front of the host vehicle 10 is a temporarily stopped vehicle, the areas of the brightness determination areas AREA 1 to AREA 4, AREA 1, 3, Any one of the luminance average values of 4 exceeds the luminance threshold value. For this reason, it is determined that the other vehicle 22 is a temporarily stopped vehicle. In the example of FIG. 5, the other vehicle 22 is a rear-view vehicle, and thus the luminance threshold value of the luminance determination area AREA2 corresponding to the prime mover mounting unit is generally lower than the luminance threshold value.

一方、該他車両22が一時的な停止車両でない場合、すなわち、原動機の運転を停止した状態で、十分に長い時間、定常的に駐車している車両である場合には、該他車両22の全体の温度が比較的低いので、いずれの輝度判定領域AREA1〜AREA4においても、その輝度平均値は、輝度閾値よりも低くなる。このため、該他車両22は、一時的な停止車両でないと判断される。   On the other hand, if the other vehicle 22 is not a temporarily stopped vehicle, that is, if it is a vehicle that is regularly parked for a sufficiently long time with the operation of the prime mover stopped, Since the overall temperature is relatively low, the average luminance value is lower than the luminance threshold value in any of the luminance determination areas AREA1 to AREA4. For this reason, it is determined that the other vehicle 22 is not a temporarily stopped vehicle.

補足すると、図5の状況において、仮に、対向斜線23側の他車両24が一時的な停止車両であるとした場合には、この他車両24に関する前記輝度判定領域AREA1〜4のうちの、輝度判定領域AREA2〜4のいずれかの輝度平均値が輝度閾値よりも高くなり、それにより、該他車両24が一時的な停止車両であると判断することができる。   Supplementally, in the situation of FIG. 5, if the other vehicle 24 on the opposite oblique line 23 side is a temporarily stopped vehicle, the luminance in the luminance determination areas AREA1 to AREA4 regarding the other vehicle 24 will be described. The average luminance value of any one of the determination areas AREA2 to 4 becomes higher than the luminance threshold value, whereby it is possible to determine that the other vehicle 24 is a temporarily stopped vehicle.

また、STEP103で、上記のように輝度判定領域AREA1〜AREA4の輝度平均値を求める処理が、本発明の停止車両分別検出装置の温度状態検出手段に相当する。この場合、輝度判定領域AREA1〜AREA4が停止車両画像に相当する。そして、STEP103で、輝度判定領域AREA1〜AREA4の輝度平均値を基に、停止している他車両が一時的な停止車両であるか否かを判定する処理が、本発明の停止車両分別検出装置の判定手段に相当する。   In STEP 103, the process for obtaining the average brightness value of the brightness determination areas AREA1 to AREA4 as described above corresponds to the temperature state detection means of the stopped vehicle classification detection device of the present invention. In this case, the luminance determination areas AREA1 to AREA4 correspond to the stopped vehicle image. Then, in STEP 103, the process for determining whether or not the other stopped vehicle is a temporarily stopped vehicle based on the average luminance values of the luminance determination areas AREA1 to AREA4 is the stopped vehicle classification detection device of the present invention. It corresponds to the determination means.

なお、本実施形態では、停止している他車両が一時的な停止車両であるか否かを判断するために、輝度判定領域AREA1〜4の輝度平均値を用いたが、該輝度平均値の代わりに、例えば輝度判定領域AREA1〜4における輝度の最大値を使用してもよい。また、輝度判定領域AREA1〜4のうちの一部、例えば、AREA1,2だけを使用したり、あるいは、AREA3,4だけを使用してもよい。また、輝度閾値は、各輝度判定領域AREA1〜4毎に各別に設定してもよく、さらには、気温などに応じて変化させるようにしてもよい。   In this embodiment, the luminance average value of the luminance determination areas AREA1 to AREA4 is used to determine whether or not the other stopped vehicle is a temporarily stopped vehicle. Instead, for example, the maximum luminance value in the luminance determination areas AREA1 to AREA4 may be used. Further, a part of the luminance determination areas AREA1 to AREA4, for example, only AREA1 and 2, or only AREA3 and 4 may be used. Further, the luminance threshold may be set for each of the luminance determination areas AREA1 to AREA4, and may be changed according to the temperature or the like.

画像処理ユニット1は、STEP103で、上記の如く停止している他車両(STEP103で停止していると判断した他車両のうちの少なくとも1つの他車両)が一時的な停止車両であると判断した場合(STEP103の判断結果がYESとなる場合)には、STEP104に進んで、一時的な停止車両が存在すると判断し、STEP17の処理を終了する。また、STEP103で停止していると判断した全ての他車両が一時的な停止車両でないと判断した場合(STEP103の判断結果がNOである場合)には、前記STEP105に進んで、一時的な停止車両は存在しないと判断し、STEP17の処理を終了する。   The image processing unit 1 determines in STEP 103 that the other vehicle stopped as described above (at least one of the other vehicles determined to be stopped in STEP 103) is a temporarily stopped vehicle. In the case (when the determination result in STEP 103 is YES), the process proceeds to STEP 104, where it is determined that there is a temporarily stopped vehicle, and the processing in STEP 17 is terminated. If it is determined that all other vehicles determined to be stopped in STEP 103 are not temporarily stopped vehicles (when the determination result in STEP 103 is NO), the process proceeds to STEP 105 to temporarily stop. It is determined that there is no vehicle, and the processing of STEP 17 ends.

以上が、STEP17で一時的な停止車両が存在するか否かを判断する処理の詳細である。   The above is the details of the process of determining whether or not there is a temporarily stopped vehicle in STEP 17.

次に、前記STEP18,19の処理の詳細を説明する。画像処理ユニット1は、前記したように、STEP17の判断結果に応じて、STEP18,19において、警報領域の幅と、対象物抽出画像領域とを設定する処理を実行する。   Next, details of the processing of STEPs 18 and 19 will be described. As described above, the image processing unit 1 executes the process of setting the width of the alarm area and the object extraction image area in STEPs 18 and 19 according to the determination result in STEP17.

ここで、これらの警報領域および対象物抽出画像領域ついて説明しておく。まず、対象物抽出画像領域は、前記したように次回以降の前記STEP4の処理で2値化を行なう基準画像上の領域であるので、前記STEP7における対象物の抽出は、この対象物抽出画像領域内で行なわれる。換言すれば、該対象物抽出画像領域は、警報の対象となり得る対象物を探索する基準画像内の領域である。そして、本実施形態では、設定される対象物抽出画像領域は、図6に示す基準画像(右画像)のうちの破線枠で示す長方形の領域S1(以下、標準画像領域S1という)と、基準画像の全体の領域S2(以下、拡大画像領域S2)との2種類がある。本実施形態では、標準画像領域S1は、その中心点を拡大画像領域S2の中心点と同一とし、該拡大画像領域S2よりも縦および横方向の幅が所定割合だけ小さい領域である。なお、標準画像領域S1は、横方向の幅だけが、拡大画像領域S2よりも小さくなる領域に設定してもよい。   Here, the warning area and the object extraction image area will be described. First, since the object extraction image area is an area on the reference image to be binarized in the subsequent processing of STEP 4 as described above, the extraction of the object in STEP 7 is performed using this object extraction image area. Is done within. In other words, the object extraction image area is an area in the reference image for searching for an object that can be an alarm target. In this embodiment, the object extraction image area to be set includes a rectangular area S1 (hereinafter referred to as a standard image area S1) indicated by a broken line frame in the reference image (right image) shown in FIG. There are two types: an entire area S2 of the image (hereinafter, an enlarged image area S2). In the present embodiment, the standard image region S1 is a region whose center point is the same as the center point of the enlarged image region S2, and whose vertical and horizontal widths are smaller than the enlarged image region S2 by a predetermined ratio. The standard image area S1 may be set to an area in which only the width in the horizontal direction is smaller than that of the enlarged image area S2.

補足すると、対象物抽出画像領域を変更すると、自車両10の前方の撮像監視領域内で警報の対象となり得る対象物を検出する空間的領域(以下、対象物検出空間領域という)が変更されることとなる。具体的には、図6を参照して、対象物抽出画像領域として前記拡大画像領域S2を設定した場合には、それに対応する対象物検出空間領域は、平面視で、図5に示す撮像監視領域abcに一致する。また、対象物抽出画像領域として前記標準画像領域S1を設定した場合には、それに対応する対象物検出空間領域は、平面視で、図5に示す撮像監視領域abc内の三角形領域adeに縮小される。従って、対象物抽出画像領域を変更することにより、対象物検出空間領域も変更されることとなる。   Supplementally, when the object extraction image area is changed, a spatial area (hereinafter referred to as an object detection space area) for detecting an object that can be an alarm target in the imaging monitoring area in front of the host vehicle 10 is changed. It will be. Specifically, referring to FIG. 6, when the enlarged image area S2 is set as the object extraction image area, the corresponding object detection space area is shown in FIG. 5 in plan view. It matches the region abc. When the standard image area S1 is set as the object extraction image area, the corresponding object detection space area is reduced to a triangular area ade in the imaging monitoring area abc shown in FIG. 5 in plan view. The Therefore, the object detection space area is also changed by changing the object extraction image area.

また、前記警報領域は、前記警報発生要件のうちの1つの要件に係わる、自車両10の前方の空間的領域である。この警報領域は、その領域内に物体が存在する場合に、該物体と自車両10とが衝突する可能性が高いと判断する領域である。本実施形態で設定される警報領域は、平面視で、図5の五角形afghiの領域である標準警報領域afghiと、この標準警報領域afghiを包含する同図の五角形ajkmnの領域である拡大警報領域ajkmnとの2種類がある。ここで、前記対象物検出空間領域abcまたはadeのうち、自車両10からの前後方向(実空間座標系のZ方向)の距離が、該自車両10に対する対象物の相対速度Vs(自車両10の前後方向の相対速度)に応じた所定値Vs・T以下(T:時間の次元の正の定数)となる領域(図5の三角形aopまたはaqrの領域)を衝突判定領域という。この衝突判定領域aop,aqrは、換言すれば、その平面視での形状が、それぞれ対象物検出空間領域abc,adeと相似形状で、自車両10の前後方向における長さが対象物毎に、該対象物の自車両10に対する相対速度Vsに比例した値Vs・Tに設定される領域である。なお、図5では、衝突判定領域aop,aqrは、例えば人P1もしくはP2に対応する領域である。   The warning area is a spatial area in front of the host vehicle 10 related to one of the warning generation requirements. This warning area is an area where it is determined that there is a high possibility that the object and the host vehicle 10 will collide when an object exists in the area. The alarm area set in the present embodiment is a standard alarm area afghhi that is an area of the pentagon afghhi in FIG. 5 and an enlarged alarm area that is an area of the pentagon ajkmn in the same figure that includes the standard alarm area afghhi in plan view. There are two types, ajkmn. Here, in the object detection space area abc or ade, the distance in the front-rear direction (Z direction in the real space coordinate system) from the own vehicle 10 is the relative speed Vs of the object with respect to the own vehicle 10 (the own vehicle 10 An area (triangle aop or aqr area in FIG. 5) that is equal to or smaller than a predetermined value Vs · T (T: a positive constant in the dimension of time) according to the front-rear direction relative speed) is referred to as a collision determination area. In other words, the collision determination areas aop and aqr are similar in shape to the object detection space areas abc and ade, respectively, in the plan view, and the length in the front-rear direction of the host vehicle 10 for each object. This is an area set to a value Vs · T proportional to the relative speed Vs of the object with respect to the host vehicle 10. In FIG. 5, the collision determination areas aop and aqr are areas corresponding to the person P1 or P2, for example.

本実施形態では、対象物が、この衝突判定領域aopまたはaqrに存在することを1つの警報発生要件とする。そして、前記標準警報領域afghiおよび拡大警報領域ajkmnは、それぞれ、この衝突判定領域aqr、aop内に設定される領域である。以降、衝突判定領域aqrを標準衝突判定領域aqr、衝突判定領域aopを拡大衝突判定領域という。   In the present embodiment, one alarm generation requirement is that the object exists in the collision determination area aop or aqr. The standard alarm area afghi and the enlarged alarm area ajkmn are areas set in the collision determination areas aqr and aop, respectively. Hereinafter, the collision determination area aqr is referred to as a standard collision determination area aqr, and the collision determination area aop is referred to as an enlarged collision determination area.

さらに詳細には、標準警報領域afghiは、標準衝突判定領域aqrの境界線aq,ar,qrと、自車両10の車幅中心線Lに平行で、且つ該車幅中心線Lの左右に該車幅中心線Lと所定間隔Wa/2を有する2つの直線(線分fg,hiをそれぞれ含む直線)とで囲まれた領域である。この場合、標準警報領域afghiの幅Waは、自車両の車幅よりも若干大きい幅に設定されている。なお、Waは、標準衝突判定領域aqrの底辺(線分qr)の長さよりも小さい。   More specifically, the standard warning area afghhi is parallel to the boundary lines aq, ar, qr of the standard collision determination area aqr and the vehicle width center line L of the host vehicle 10 and to the left and right of the vehicle width center line L. This is an area surrounded by the vehicle width center line L and two straight lines (straight lines each including line segments fg and hi) having a predetermined interval Wa / 2. In this case, the width Wa of the standard alarm area afghhi is set to be slightly larger than the vehicle width of the host vehicle. Wa is smaller than the length of the bottom side (line segment qr) of the standard collision determination area aqr.

また、拡大警報領域ajkmnは、拡大衝突判定領域aopの境界線ao,ap,opと、自車両10の車幅中心線Lに平行で、且つ、該車幅中心線Lの左右に該車幅中心線Lと所定間隔Wb/2を有する2つの直線(線分jk,mnをそれぞれ含む直線)とで囲まれた領域である。この場合、拡大警報領域ajkmnの幅Wbは、標準警報領域afghiの幅Waよりも大きい幅に設定されている。なお、Wbは、拡大衝突判定領域aopの底辺(線分op)の長さよりも小さい。   Further, the enlarged warning area ajkmn is parallel to the boundary lines ao, ap, op of the enlarged collision determination area aop and the vehicle width center line L of the host vehicle 10, and the vehicle width on the left and right of the vehicle width center line L. This is an area surrounded by a center line L and two straight lines (straight lines each including line segments jk and mn) having a predetermined interval Wb / 2. In this case, the width Wb of the enlarged alarm area ajkmn is set to be larger than the width Wa of the standard alarm area afghhi. Note that Wb is smaller than the length of the bottom side (line segment op) of the enlarged collision determination area aop.

前記STEP18は、STEP17において、一時的な停止車両が存在すると判断された場合の処理であり、STEP19は、STEP17において、一時的な停止車両が存在しないと判断された場合の処理である。   STEP 18 is a process when it is determined in STEP 17 that there is a temporarily stopped vehicle, and STEP 19 is a process when it is determined in STEP 17 that there is no temporarily stopped vehicle.

そして、画像処理ユニット1は、STEP18では、警報領域の幅として、前記拡大警報領域ajkmnの幅Wbを設定すると共に、対象物抽出画像領域として、前記拡大画像領域S2を設定する(対象物抽出空間領域として領域abcを設定する)。また、STEP19では、警報領域の幅として、前記標準警報領域afghiの幅Waを設定すると共に、対象物抽出画像領域として、前記標準画像領域S1を設定する(対象物抽出空間領域として領域adeを設定する)。これにより、警報領域の幅と、対象物抽出空間領域とが、自車両10の前方に一時的な停止車両が存在するか否かで可変的に変更されることとなる。この場合、警報領域と対象物抽出空間領域とは、いずれも、一時的な停止車両が存在しない場合よりも、存在する場合の方が、自車両10の車幅方向に拡大されることとなる。   In STEP 18, the image processing unit 1 sets the width Wb of the enlarged warning area ajkmn as the width of the warning area, and sets the enlarged image area S2 as the target extraction image area (target extraction space). The area abc is set as the area). In STEP 19, the width Wa of the standard alarm area afghhi is set as the width of the alarm area, and the standard image area S1 is set as the object extraction image area (the area ade is set as the object extraction space area). To do). Thereby, the width | variety of a warning area | region and the target object extraction space area | region will be changed variably by whether the temporary stop vehicle exists ahead of the own vehicle 10. FIG. In this case, both the warning area and the object extraction space area are expanded in the vehicle width direction of the host vehicle 10 when there is no temporarily stopped vehicle. .

補足すると、STEP18,19の処理は、本発明の周辺監視装置の検出領域設定手段および警報発生要件設定手段に相当するものである。   Supplementally, the processing of STEPs 18 and 19 corresponds to detection area setting means and alarm generation requirement setting means of the periphery monitoring device of the present invention.

次に、STEP20の警報判定処理を説明する。図9は、この警報判定処理を示すフローチャートである。   Next, the alarm determination process in STEP 20 will be described. FIG. 9 is a flowchart showing this alarm determination processing.

本実施形態では、抽出された各対象物に対して、以下に説明するように該対象物が警報発生要件を満たすか否かが判断される。まず、STEP120において、対象物が前記衝突判定領域に存在するか否かが判断される。具体的には、各対象物について該対象物の実空間位置(Z方向の位置)の時系列データを基に、該対象物の自車両10に対する相対速度Vsが算出される。そして、該対象物の現在の実空間位置のZ方向位置(Z方向における自車両10からの距離)が、この相対速度Vsに定数Tを乗じた値以下であるか否かによって、該対象物が、前記したように定められる衝突判定領域に存在するか否かが判断される。なお、対象物の相対速度Vsが自車両10から遠ざかる向きの速度である場合には、該対象物は衝突判定領域に存在しないと判断される。また、対象物の高さ位置(実空間座標系のY方向位置)が所定の高さ(自車両10の車高よりも高い高さ)を超えている場合にも、対象物は衝突判定領域に存在しないと判断される。   In the present embodiment, for each extracted object, it is determined whether or not the object satisfies the alarm generation requirement as described below. First, in STEP 120, it is determined whether or not the object exists in the collision determination area. Specifically, the relative speed Vs of the object with respect to the host vehicle 10 is calculated based on the time series data of the real space position (position in the Z direction) of the object. Then, depending on whether or not the Z position (the distance from the vehicle 10 in the Z direction) of the current real space position of the object is equal to or less than the value obtained by multiplying the relative speed Vs by a constant T, Is present in the collision determination area determined as described above. If the relative speed Vs of the object is a speed away from the host vehicle 10, it is determined that the object does not exist in the collision determination area. Further, even when the height position of the target object (Y direction position in the real space coordinate system) exceeds a predetermined height (a height higher than the vehicle height of the host vehicle 10), the target object is in the collision determination area. Is determined not to exist.

補足すると、この場合の衝突判定領域は、現在の対象物抽出画像領域が前記標準画像領域S1に設定されている場合には、前記標準衝突判定領域aqrであり、現在の対象物抽出画像領域が前記拡大画像領域S2に設定されている場合には、前記拡大衝突判定領域aopである。従って、図5の状況では、対象物抽出画像領域が前記標準画像領域S1に設定されている場合には、人P1,P2のうちの人P1は、衝突判定領域に存在すると判断されるが、人P2は衝突判定領域に存在しないと判断される。一方、対象物抽出画像領域が前記拡大画像領域S2に設定されている場合には、人P1,P2の両者が衝突判定領域に存在すると判断される。なお、ここでの説明では、人P1,P2に関する相対速度Vsはほぼ同じであるとしている。   Supplementally, the collision determination area in this case is the standard collision determination area aqr when the current object extraction image area is set to the standard image area S1, and the current object extraction image area is When it is set in the enlarged image area S2, it is the enlarged collision determination area aop. Therefore, in the situation of FIG. 5, when the object extraction image area is set to the standard image area S1, it is determined that the person P1 out of the persons P1 and P2 exists in the collision determination area, but the person P2 Is determined not to exist in the collision determination area. On the other hand, when the object extraction image area is set to the enlarged image area S2, it is determined that both the persons P1 and P2 exist in the collision determination area. In the description here, it is assumed that the relative speeds Vs regarding the persons P1 and P2 are substantially the same.

そして、対象物が衝突判定領域に存在しない場合(STEP120の判断結果がNOとなる場合)には、STEP126に進んで、対象物は、警報発生要件を満たさないと判断され、STEP20の警報判定処理が終了する。   When the object does not exist in the collision determination area (when the determination result of STEP 120 is NO), the process proceeds to STEP 126, where it is determined that the object does not satisfy the alarm generation requirement, and the alarm determination process of STEP 20 Ends.

また、STEP120で対象物が衝突判定領域に存在する場合(STEP120の判断結果がYESとなる場合)には、次に、対象物が前記警報領域に存在するか否かが判断される(STEP121)。具体的には、該対象物の実空間座標系でのX方向位置(自車両10の車幅方向の位置)が、前記STEP18または19で設定された幅WaまたはWbにより定まる警報領域の左右の境界線の間の範囲に存するか否かによって、対象物が警報領域に存在するか否かが判断される。   If the object exists in the collision determination area in STEP 120 (when the determination result in STEP 120 is YES), it is next determined whether or not the object exists in the alarm area (STEP 121). . Specifically, the X position in the real space coordinate system of the object (the position in the vehicle width direction of the host vehicle 10) is the left and right of the warning area determined by the width Wa or Wb set in STEP 18 or 19. Whether or not the object is present in the alarm area is determined based on whether or not the object exists in the range between the boundary lines.

この場合、例えば図5に示す状況において、前記STEP17で他車両22が一時的な停止車両であると判断された場合には、警報領域は、拡大警報領域ajkmnであるので、この警報領域の左右の境界線は、線分jkを含む直線および線分mnを含む直線である。また、前記STEP17で他車両22が一時的な停止車両でないと判断された場合には、警報領域は、標準警報領域afghiであるので、この警報領域の左右の境界線は、線分fgを含む直線および線分hiを含む直線である。従って、他車両22が一時的な停止車両である場合において、対象物抽出画像領域(画像処理ユニット1の現在の演算処理周期でのSTEP4の処理で2値化を行なう画像領域)が拡大画像領域S2に設定されていた場合には、人P1,P2の両者が警報領域に存在すると判断される。一方、他車両22が一時的な停止車両でなく、現在の演算処理周期でのSTEP4の処理の際に、対象物抽出画像領域が標準画像領域S2に設定されていた場合には、人P1,P2の両者が警報領域に存在しないと判断される。   In this case, for example, in the situation shown in FIG. 5, when it is determined in STEP 17 that the other vehicle 22 is a temporarily stopped vehicle, the warning area is the enlarged warning area ajkmn. Are a straight line including the line segment jk and a straight line including the line segment mn. Further, when it is determined in STEP 17 that the other vehicle 22 is not a temporarily stopped vehicle, the warning area is the standard warning area afghhi, so the left and right boundary lines of this warning area include the line segment fg. A straight line including a straight line and a line segment hi. Therefore, when the other vehicle 22 is a temporarily stopped vehicle, the object extraction image area (the image area that is binarized in STEP 4 in the current calculation processing cycle of the image processing unit 1) is an enlarged image area. If it is set to S2, it is determined that both of the people P1 and P2 are present in the alarm area. On the other hand, when the other vehicle 22 is not a temporarily stopped vehicle and the object extraction image area is set to the standard image area S2 in the processing of STEP4 in the current calculation processing cycle, the person P1, It is determined that both of P2 do not exist in the alarm area.

STEP121で対象物が警報領域に存在すると判断された場合(STEP121の判断結果がYESになる場合)には、次に、STEP122に進み、画像処理ユニット1は、該対象物が人であるか否か(より正確には人である可能性が高いか否か)の判定を行なう。対象物が人であるか否かの判断は、公知の手法を使用すればよく、グレースケール画像上での対象物の形状や大きさ、輝度分布等の特徴から、該対象物の特徴を判断すればよい。   If it is determined in STEP 121 that the object is present in the alarm area (when the determination result in STEP 121 is YES), the process proceeds to STEP 122, and the image processing unit 1 determines whether or not the object is a person. (More precisely, whether or not there is a high possibility of being a person). Whether or not the object is a person may be determined by using a known method, and the characteristics of the object are determined from characteristics such as the shape and size of the object on the gray scale image and the luminance distribution. do it.

このSTEP122の処理で、対象物が人である可能性が高いと判断した場合には、前記STEP123に進み、該対象物が人工構造物であるか否かの判定が行なわれる。この場合、前記STEP17の処理で、他車両であると判断された対象物は、人工構造物であると判断される。なお、他車両以外にも、電柱などの対象物を人工構造物として判定するようにしてもよい。   If it is determined in step 122 that the object is likely to be a person, the process proceeds to step 123, where it is determined whether the object is an artificial structure. In this case, the object determined to be another vehicle in the processing of STEP 17 is determined to be an artificial structure. In addition to other vehicles, an object such as a utility pole may be determined as an artificial structure.

そして、STEP122で対象物が人であると判断され(人である可能性が高いと判断され)、且つ、STEP123で該対象物が人工構造物でないと判断された場合には、該対象物が警報発生要件を満たすと判断される(STEP124)。また、STEP122で対象物が人でないと判断された場合、あるいは、STEP123で対象物が人工構造物であると判断された場合には、前記STEP126に進んで、対象物は警報発生要件を満たさないと判断する。   If it is determined in STEP 122 that the object is a person (it is determined that there is a high possibility of being a person) and it is determined in STEP 123 that the object is not an artificial structure, the object is It is determined that the alarm generation requirement is satisfied (STEP 124). If it is determined in STEP 122 that the object is not a person, or if it is determined in STEP 123 that the object is an artificial structure, the process proceeds to STEP 126 and the object does not satisfy the alarm generation requirement. Judge.

一方、前記STEP121で、対象物が警報領域に存在しないと判断された場合には、画像処理ユニット1は、進入衝突判定を行なう(STEP125)。この進入衝突判定では、前記STEP16で求めた対象物の移動ベクトルに基づいて、自車両10との衝突の可能性が判定される。具体的には、対象物の移動ベクトルが現状に維持されると仮定し、この移動ベクトルを含む直線と、自車両10の前端位置における実空間座標系のXY平面との交点のX方向位置が求められる。そして、この求めたX方向位置が、自車両10の車幅中心線のX方向位置を中心とする所定範囲(自車両10の車幅よりも若干広い範囲)に存在することを要件(以下、進入衝突要件という)として、対象物が自車両10に衝突する可能性が高いか否かが判定される。すなわち、前記進入衝突要件が満たされる場合には、対象物が警報領域に進入し、自車両10に衝突する可能性が高いと判断され、そうでない場合には、自車両10に衝突する可能性がないか、もしくは低いと判断される。   On the other hand, if it is determined in STEP 121 that the object does not exist in the warning area, the image processing unit 1 performs an approach collision determination (STEP 125). In this approach collision determination, the possibility of a collision with the host vehicle 10 is determined based on the movement vector of the object obtained in STEP16. Specifically, assuming that the movement vector of the object is maintained as it is, the X direction position of the intersection of the straight line including this movement vector and the XY plane of the real space coordinate system at the front end position of the host vehicle 10 is Desired. And it is a requirement (hereinafter referred to as the following) that the obtained X direction position exists in a predetermined range (a range slightly wider than the vehicle width of the own vehicle 10) centered on the X direction position of the vehicle width center line of the own vehicle 10. As the entry collision requirement), it is determined whether or not the object is highly likely to collide with the host vehicle 10. That is, when the entry collision requirement is satisfied, it is determined that there is a high possibility that the target object enters the warning area and collides with the own vehicle 10, and otherwise, there is a possibility that the object collides with the own vehicle 10. It is judged that there is no or low.

そして、STEP125の進入衝突判定で、対象物が自車両10に衝突する可能性が高いと判断された場合(STEP125の判断結果がYESとなる場合)には、前記STEP124に進んで、対象物が警報発生要件を満たすと判断される。また、STEP125の進入衝突判定で、対象物が自車両10に衝突する可能性が高くないと判断された場合(STEP125の判断結果がNOとなる場合)には、前記STEP126に進んで、対象物が警報発生要件を満たさないと判断される。   Then, if it is determined in STEP 125 that the object is highly likely to collide with the host vehicle 10 (when the determination result in STEP 125 is YES), the process proceeds to STEP 124, where the object is detected. It is judged that the alarm generation requirement is satisfied. Further, when it is determined in STEP 125 that the collision of the object is not likely to collide with the host vehicle 10 (when the determination result in STEP 125 is NO), the process proceeds to STEP 126 and the object is detected. Is determined not to meet the alarm requirements.

以上が、STEP20の警報判定処理の詳細である。この警報判定処理では、
(1)対象物が警報領域に存在し、且つ該対象物の種類が人である。
The above is the details of the warning determination process of STEP20. In this alarm judgment process,
(1) The object exists in the alarm area, and the type of the object is a person.

(2)対象物が衝突判定領域内の警報領域以外の領域に存在し、且つ前記進入衝突要件を満たす。
ということを警報発生要件として、この警報発生要件を満たすか否かが判断されることとなる。
(2) The object is present in an area other than the warning area within the collision determination area, and satisfies the approach collision requirement.
That is, it is determined whether or not this alarm generation requirement is satisfied.

この場合、図4の状況では、自車両10の左斜め前方の他車両22が一時的な停止車両でない場合には、人P1,P2は、警報領域(標準警報領域afghi)に存在しないので、人P1,P2が、前記進入衝突要件を満たさない限り、それらの人P1,P2は、警報発生要件を満たさないと判断される。一方、該他車両22が一時的な停止車両である場合には、少なくとも該車両22が一時的な停止車両であると最初に判断された演算処理周期の次の演算処理周期から、人P1,P2は、警報領域(拡大警報領域ajkmn)に存在することとなるので、それらの人P1,P2が警報発生要件を満たすと判断される。   In this case, in the situation of FIG. 4, when the other vehicle 22 diagonally to the left of the host vehicle 10 is not a temporarily stopped vehicle, the people P1 and P2 do not exist in the warning area (standard warning area afghhi). Unless the persons P1 and P2 satisfy the entry collision requirement, it is determined that the persons P1 and P2 do not satisfy the alarm generation requirement. On the other hand, when the other vehicle 22 is a temporarily stopped vehicle, the person P1, from the calculation processing cycle next to the calculation processing cycle first determined that the vehicle 22 is a temporarily stopped vehicle. Since P2 exists in the warning area (enlarged warning area ajkmn), it is determined that those persons P1 and P2 satisfy the warning generation requirement.

そして、その結果、前記STEP21の警報出力判定処理で、警報を行なうべきと判断されたときには、人P1,P2に関する警報が運転者に発せられることとなる。   As a result, when it is determined in the warning output determination process in STEP 21 that a warning should be given, a warning regarding the persons P1 and P2 is issued to the driver.

補足すると、STEP20〜STEP22の処理は、本発明の周辺監視装置における警報発生手段に相当するものである。   Supplementally, the processing of STEP20 to STEP22 corresponds to an alarm generation means in the periphery monitoring device of the present invention.

以上のように、本実施形態の周辺監視装置によれば、一時的な停止車両が検出された場合には、対象物抽出画像領域(ひいては対象物検出空間領域)と警報領域とが、当該一時的な停止車両が検出されない場合よりも、自車両10の車幅方向に拡大される。このため、今まで、警報の対象とされなかった、他車両の周辺などに存在する人などの対象物が警報の対象とされる。このため、自車両10の運転者に、より広い範囲にわたって、人などの存在に対する注意を喚起することができる。   As described above, according to the periphery monitoring device of the present embodiment, when a temporarily stopped vehicle is detected, the object extraction image area (and thus the object detection space area) and the alarm area are temporarily displayed. The vehicle 10 is enlarged in the vehicle width direction of the host vehicle 10 as compared with a case where a stationary vehicle is not detected. For this reason, an object such as a person existing in the vicinity of another vehicle, which has not been targeted for warning until now, is targeted for warning. For this reason, the driver | operator of the own vehicle 10 can be alerted to presence of a person etc. over a wider range.

例えば図5の状況において、他車両22が一時的な停止車両である場合には、この他車両22の前方を人P1が横断したり、あるいは、人P1,P2が他車両22に乗り込むために自車両10の走行車線21側に飛び出して来る場合などが想定される。また、他車両22の乗員が運転を交代するために、助手席側の乗員が他車両22から降車し、運転席側に飛び出してくる場合なども想定される。このような場合に、今まで、自車両10の運転者が注意していなかった人P1,P2などに対する注意を運転者に喚起することができる。   For example, in the situation of FIG. 5, when the other vehicle 22 is a temporarily stopped vehicle, the person P1 crosses the front of the other vehicle 22 or the people P1 and P2 enter the other vehicle 22. The case where it jumps out to the traveling lane 21 side of the own vehicle 10 etc. is assumed. In addition, it may be assumed that the passenger on the passenger seat gets off the other vehicle 22 and jumps out to the driver's seat because the passenger of the other vehicle 22 changes driving. In such a case, the driver can be alerted to the people P1, P2 and the like that have not been noted by the driver of the host vehicle 10 until now.

また、一時的な停止車両が存在しない場合には、対象物抽出画像領域(ひいては対象物検出空間領域)と警報領域とが、当該一時的な停止車両が存在する場合よりも、自車両10の車幅方向に縮小されるので、必要以上に頻繁に警報が発生されるような事態を防止することができる。   In addition, when there is no temporarily stopped vehicle, the object extraction image area (and thus the object detection space area) and the warning area are compared to the case where the own vehicle 10 is compared to the case where the temporarily stopped vehicle exists. Since the vehicle is reduced in the vehicle width direction, it is possible to prevent a situation in which an alarm is generated more frequently than necessary.

なお、以上説明した実施形態では、一時的な停止車両が存在するか否かに応じて、対象物抽出画像領域と警報領域の幅との両者を可変的に設定するようにしたが、いずれか一方だけを可変的に設定するようにしてもよい。   In the embodiment described above, both the object extraction image area and the width of the alarm area are variably set depending on whether or not a temporarily stopped vehicle exists. Only one of them may be set variably.

また、前記実施形態では、一時的な停止車両が検出された場合に、その停止車両の存在を自車両10の運転者に警報するようにしてもよい。このようにすると、その一時的な停止車両の乗員が急に降車するような状況に対する運転者の注意を喚起することができる。あるいは、例えば一時的な停止車両が検出された場合に、その周辺に人が所定時間前から存在することを警報発生要件として、該停止車両と人とに関する警報を運転者に発するようにしてもよい。このようにすると、特に、人が一時的な停止車両に乗車するような状況に対する運転者の注意を喚起することができる。このように、一時的な停止車両が検出された場合の警報発生要件は、該停止車両と人との位置関係や時間的関係を考慮して設定してもよい。   Moreover, in the said embodiment, when the temporarily stopped vehicle is detected, you may make it alarm the driver | operator of the own vehicle 10 about the presence of the stopped vehicle. If it does in this way, a driver's attention to the situation where the crew member of the temporary stop vehicle gets off suddenly can be called. Alternatively, for example, when a temporarily stopped vehicle is detected, it is assumed that the presence of a person in the vicinity for a predetermined period of time is an alarm generation requirement, and an alarm regarding the stopped vehicle and the person is issued to the driver. Good. In this way, in particular, the driver's attention can be alerted to a situation where a person gets on a temporarily stopped vehicle. In this way, the alarm generation requirement when a temporarily stopped vehicle is detected may be set in consideration of the positional relationship and temporal relationship between the stopped vehicle and a person.

また、前記実施形態では、STEP18,19で対象物抽出画像領域が変更されたとき、その変更後の対象物抽出画像領域は、画像処理ユニット1の次回の演算処理周期で使用するようにしたが、STEP18,19で対象物抽出画像領域が変更されたとき、同一の演算処理周期内で、STEP4からの処理を再度行なうようにしてもよい。その場合、特に、対象物抽出画像領域が標準画像領域S1から拡大画像領域S2に変更されたときには、既に抽出された対象物については保持しておき、拡大画像領域S2のうちの標準画像領域S1以外の領域だけから対象物を新たに抽出するようにしてもよい。   In the above embodiment, when the object extraction image area is changed in STEPs 18 and 19, the object extraction image area after the change is used in the next arithmetic processing cycle of the image processing unit 1. When the object extraction image region is changed in STEPs 18 and 19, the processing from STEP 4 may be performed again within the same calculation processing cycle. In that case, in particular, when the object extraction image area is changed from the standard image area S1 to the enlarged image area S2, the already extracted object is held and the standard image area S1 in the enlarged image area S2 is retained. The object may be newly extracted from only the other area.

また、前記実施形態では、対象物抽出画像領域の拡大画領域S2を、標準画像領域S1に対して左右両側に拡大するようにしたが、その左右のうち、例えば一時的な停止車両の存在側にのみ拡大したり、あるいは、該一時的な停止車両の存在側を、他方側よりもより大きく拡大するようにしてもよい。同様に、拡大警報領域ajkmnを標準警報領域afjghの左右両側のうち、一時的な停止車両の存在側にのみ拡大したり、あるいは、一時的な停止車両の存在側を他方側よりもより大きく拡大するようにしてもよい。   In the embodiment, the enlarged image area S2 of the object extraction image area is enlarged to the left and right sides with respect to the standard image area S1. Alternatively, the temporary stop vehicle may be enlarged more than the other side. Similarly, the enlarged warning area ajkmn is enlarged only on the side where the temporarily stopped vehicle is present on the left and right sides of the standard warning area afjgh, or the side where the temporarily stopped vehicle is present is enlarged more than the other side. You may make it do.

また、前記実施形態では、2台の赤外線カメラ2R,2Lを備えたが、対象物との距離をレーダーなどにより検出するようにした場合には、1台の赤外線カメラ2R,2Lを自車両10に搭載するようにしてもよい。   In the above embodiment, the two infrared cameras 2R and 2L are provided. However, when the distance to the object is detected by a radar or the like, the single infrared camera 2R or 2L is connected to the host vehicle 10. You may make it mount in.

さらに、対象物の検出は、赤外線カメラ2R,2Lだけでなく、可視光カメラやレーダーを併用して行なうようにしてもよい。   Furthermore, the detection of the object may be performed using not only the infrared cameras 2R and 2L but also a visible light camera or a radar.

本発明の車両の周辺監視装置(停止車両分別検出装置を含む)の一実施形態の全体構成を示す図。The figure which shows the whole structure of one Embodiment of the periphery monitoring apparatus (a stop vehicle classification | category detection apparatus) of the vehicle of this invention. 図1の周辺監視装置を備えた車両の斜視図。The perspective view of the vehicle provided with the periphery monitoring apparatus of FIG. 図1の周辺監視装置に備えた画像処理ユニットをの処理を示すフローチャート。2 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた画像処理ユニットをの処理を示すフローチャート。2 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 画像処理ユニットの処理を説明するための図。The figure for demonstrating the process of an image processing unit. 実施形態における撮像画像を例示的に示す図。The figure which shows the captured image in embodiment exemplarily. 実施形態における他車両の画像例を模式的に示す図。The figure which shows typically the example of an image of the other vehicle in embodiment. 図4のフローチャートのSTEP17の処理を示すフローチャート。The flowchart which shows the process of STEP17 of the flowchart of FIG. 図4のフローチャートのSTEP20の処理を示すフローチャート。The flowchart which shows the process of STEP20 of the flowchart of FIG.

符号の説明Explanation of symbols

1…画像処理ユニット(停止車両検出手段、温度状態検出手段、判定手段、対象物検出手段、警報発生手段、検出領域設定手段、警報発生要件設定手段)、2R,2L…赤外線カメラ(撮像装置)、STEP1〜9…対象物検出手段、STEP101,102…停止車両検出手段、STEP103…温度状態検出手段および判定手段、STEP18,19…検出領域設定手段および警報発生要件設定手段、STEP20〜22…警報手段。   DESCRIPTION OF SYMBOLS 1 ... Image processing unit (stop vehicle detection means, temperature state detection means, determination means, object detection means, alarm generation means, detection area setting means, alarm generation requirement setting means), 2R, 2L ... infrared camera (imaging device) , STEP 1 to 9 ... Object detection means, STEP 101 and 102 ... Stopped vehicle detection means, STEP 103 ... Temperature state detection means and determination means, STEP 18 and 19 ... Detection area setting means and alarm generation requirement setting means, STEP 20 to 22 ... Alarm means .

Claims (10)

自車両の前方で停止している他車両が一時的な停止車両であるか否かを区別して検出する停止車両分別検出装置であって、
自車両の前部に搭載され、遠赤外域に感度を有する撮像装置と、
該撮像装置により撮像された自車両の前方の画像から停止中の他車両を検出する停止車両検出手段と、
該停止車両検出手段により停止中の他車両が検出されたとき、前記撮像装置により撮像された画像のうちの、該停止中の他車両に対応する部分画像である停止車両画像を基に、該停止中の他車両の温度状態を検出する温度状態検出手段と、
該温度状態検出手段により検出された温度状態に基づいて、前記停止中の他車両が一時的な停止車両であるか否かを区別して判定する判定手段とを備えることを特徴とする停止車両分別検出装置。
It is a stop vehicle classification detection device that distinguishes and detects whether or not another vehicle stopped in front of the host vehicle is a temporary stop vehicle,
An imaging device mounted on the front of the host vehicle and having sensitivity in the far-infrared region;
A stopped vehicle detection means for detecting other vehicles that are stopped from an image ahead of the host vehicle imaged by the imaging device;
When another vehicle that is stopped is detected by the stopped vehicle detection means, based on a stopped vehicle image that is a partial image corresponding to the other vehicle that is stopped, of the images captured by the imaging device, Temperature state detection means for detecting the temperature state of the other vehicle being stopped;
Stop vehicle classification, comprising: a determination unit that distinguishes and determines whether or not the other vehicle being stopped is a temporarily stopped vehicle based on the temperature state detected by the temperature state detection unit Detection device.
前記温度状態検出手段により検出する温度状態は、少なくとも前記停止中の他車両の所定の部位の温度状態を含むことを特徴とする請求項1記載の停止車両分別検出装置。   The stopped vehicle classification detection device according to claim 1, wherein the temperature state detected by the temperature state detection means includes at least a temperature state of a predetermined part of the other vehicle that is stopped. 前記所定の部位は、前記他車両の排気管とタイヤと原動機搭載部とのうちの少なくともいずれかであることを特徴とする請求項2記載の停止車両分別検出装置。   The stopped vehicle classification detection device according to claim 2, wherein the predetermined part is at least one of an exhaust pipe, a tire, and a prime mover mounting portion of the other vehicle. 前記温度状態検出手段は、前記停止車両画像の輝度状態を前記停止中の車両の温度状態を示すものとして検出することを特徴とする請求項1〜3のいずれか1項に記載の停止車両分別検出装置。   The said temperature state detection means detects the brightness | luminance state of the said stop vehicle image as what shows the temperature state of the said stop vehicle, The stop vehicle classification of any one of Claims 1-3 characterized by the above-mentioned. Detection device. 少なくとも自車両の前方の所定の検出領域に存在する対象物を検出する対象物検出手段と、該対象物検出手段により検出された対象物が少なくとも所定の警報発生要件を満たすことを必要要件として、自車両の運転者に警報を発する警報発生手段とを備えた車両の周辺監視装置において、
請求項1〜4のいずれか1項に記載の停止車両分別検出装置と、該停止車両分別検出装置の前記判定手段の判定結果に応じて前記検出領域を可変的に設定する検出領域設定手段とを備えたことを特徴とする車両の周辺監視装置。
Object detection means for detecting an object present in at least a predetermined detection area in front of the host vehicle, and the object detected by the object detection means satisfy at least a predetermined alarm generation requirement, In the vehicle periphery monitoring device comprising an alarm generating means for issuing an alarm to the driver of the own vehicle,
The stop vehicle classification detection device according to any one of claims 1 to 4, and a detection region setting unit that variably sets the detection region according to a determination result of the determination unit of the stop vehicle classification detection device. A vehicle periphery monitoring device comprising:
前記検出領域設定手段は、前記停止車両分別検出装置の判定手段により前記検出された停止中の他車両が一時的な停止車両であると判定されたときには、前記停止中の他車両が検出されないか、または、前記検出された停止中の他車両が一時的な停止車両でないと判定されたときよりも前記検出領域を少なくとも前記自車両の幅方向に拡大するように設定することを特徴とする請求項5記載の車両の周辺監視装置。   The detection area setting means determines whether or not the other vehicle being stopped is detected when it is determined by the determination means of the stopped vehicle classification detection device that the detected other vehicle being stopped is a temporarily stopped vehicle. Alternatively, the detection area is set to expand at least in the width direction of the host vehicle, compared to when it is determined that the detected other stopped vehicle is not a temporarily stopped vehicle. Item 6. A vehicle periphery monitoring device according to Item 5. 前記対象物検出手段は、前記停止車両分別検出装置の前記撮像装置により撮像された自車量の前方の画像を基に、前記対象物を検出する手段であり、前記検出領域設定手段は、前記撮像装置により撮像された画像のうちの、前記対象物を検出すべき画像領域を前記停止車両分別検出装置の判定手段の判定結果に応じて可変的に設定することにより、前記検出領域を可変的に設定することを特徴とする請求項5または6記載の車両の周辺監視装置。   The object detection means is means for detecting the object based on an image ahead of the own vehicle amount imaged by the imaging device of the stopped vehicle classification detection device, and the detection area setting means is Of the images captured by the imaging device, the detection region can be variably set by variably setting an image region in which the object is to be detected according to a determination result of the determination unit of the stopped vehicle classification detection device. The vehicle periphery monitoring device according to claim 5 or 6, wherein 少なくとも自車両の前方に存在する対象物を検出する対象物検出手段と、該対象物検出手段により検出された対象物が少なくとも所定の警報発生要件を満たすことを必要要件として、自車両の運転者に警報を発する警報発生手段とを備えた車両の周辺監視装置において、
請求項1〜4のいずれか1項に記載の停止車両分別検出装置と、該停止車両分別検出装置の前記判定手段の判定結果に応じて前記警報発生要件を可変的に設定する警報発生要件設定手段とを備えたことを特徴とする車両の周辺監視装置。
An object detection means for detecting an object present at least in front of the own vehicle, and a driver of the own vehicle as a necessary requirement that the object detected by the object detection means satisfy at least a predetermined alarm generation requirement In the vehicle periphery monitoring device comprising an alarm generating means for issuing an alarm to
An alarm generation requirement setting that variably sets the alarm generation requirement according to a determination result of the stop vehicle classification detection device according to any one of claims 1 to 4 and the determination unit of the stop vehicle classification detection device. And a vehicle periphery monitoring device.
前記警報発生要件は、前記対象物検出手段により検出された警報対象物の、自車両の前方の所定の警報領域に対する位置関係に関する要件を含み、
前記警報発生要件設定手段は、前記警報領域を前記停止車両分別検出装置の判定手段の判定結果に応じて可変的に設定することにより前記警報発生要件を可変的に設定する手段であることを特徴とする請求項8記載の車両の周辺監視装置。
The alarm generation requirement includes a requirement regarding a positional relationship of a warning object detected by the object detection unit with respect to a predetermined warning area in front of the host vehicle,
The alarm generation requirement setting means is means for variably setting the alarm generation requirement by variably setting the alarm area according to the determination result of the determination means of the stopped vehicle classification detection device. The vehicle periphery monitoring device according to claim 8.
前記警報発生要件設定手段は、前記停止車両分別検出装置の判定手段により前記検出された停止中の他車両が一時的な停止車両であると判定されたときには、前記停止中の他車両が検出されないか、または、前記検出された停止中の他車両が一時的な停止車両でないと判定されたときよりも前記警報領域を少なくとも前記自車両の幅方向に拡大するように設定することを特徴とする請求項9記載の車両の周辺監視装置。   The warning generation requirement setting means does not detect the stopped other vehicle when the determining means of the stopped vehicle classification detection device determines that the detected other stopped vehicle is a temporarily stopped vehicle. Alternatively, the warning area is set to be expanded at least in the width direction of the host vehicle as compared with a case where it is determined that the detected other stopped vehicle is not a temporarily stopped vehicle. The vehicle periphery monitoring apparatus according to claim 9.
JP2006066637A 2006-03-10 2006-03-10 Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device Pending JP2007241898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006066637A JP2007241898A (en) 2006-03-10 2006-03-10 Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006066637A JP2007241898A (en) 2006-03-10 2006-03-10 Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device

Publications (1)

Publication Number Publication Date
JP2007241898A true JP2007241898A (en) 2007-09-20

Family

ID=38587338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006066637A Pending JP2007241898A (en) 2006-03-10 2006-03-10 Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device

Country Status (1)

Country Link
JP (1) JP2007241898A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220798A (en) * 2008-03-19 2009-10-01 Casio Comput Co Ltd Vehicular alarm device and vehicular alarm processing program
JP2010089661A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2011221630A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012033075A (en) * 2010-07-30 2012-02-16 Toyota Motor Corp Action prediction device, action prediction method, and driving support device
CN103303235A (en) * 2012-03-12 2013-09-18 本田技研工业株式会社 Vehicle periphery monitoring apparatus
JP2013242660A (en) * 2012-05-18 2013-12-05 Toyota Motor Corp Object determination device and collision avoidance support device
JP2014120111A (en) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd Travel support system, travel support method, and computer program
WO2017104773A1 (en) * 2015-12-17 2017-06-22 株式会社デンソー Moving body control device and moving body control method
JP2018205909A (en) * 2017-05-31 2018-12-27 本田技研工業株式会社 Processing device, vehicle, processing method, and program
JP2019028951A (en) * 2017-08-03 2019-02-21 トヨタ自動車株式会社 Vehicle controller
US10300911B2 (en) 2016-01-28 2019-05-28 Fujitsu Ten Limited Vehicle control apparatus and vehicle control method
JPWO2018105058A1 (en) * 2016-12-07 2019-10-24 本田技研工業株式会社 Vehicle control device
WO2020031413A1 (en) * 2018-08-10 2020-02-13 株式会社Jvcケンウッド Recognition processing device, recognition processing method and recognition processing program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220798A (en) * 2008-03-19 2009-10-01 Casio Comput Co Ltd Vehicular alarm device and vehicular alarm processing program
JP2010089661A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2011221630A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012033075A (en) * 2010-07-30 2012-02-16 Toyota Motor Corp Action prediction device, action prediction method, and driving support device
CN103303235A (en) * 2012-03-12 2013-09-18 本田技研工业株式会社 Vehicle periphery monitoring apparatus
JP2013186848A (en) * 2012-03-12 2013-09-19 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013242660A (en) * 2012-05-18 2013-12-05 Toyota Motor Corp Object determination device and collision avoidance support device
JP2014120111A (en) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd Travel support system, travel support method, and computer program
US10665107B2 (en) 2015-12-17 2020-05-26 Denso Corporation Moving object control apparatus and method of controlling moving object
JP2017111684A (en) * 2015-12-17 2017-06-22 株式会社デンソー Controller, and control method
WO2017104773A1 (en) * 2015-12-17 2017-06-22 株式会社デンソー Moving body control device and moving body control method
US10300911B2 (en) 2016-01-28 2019-05-28 Fujitsu Ten Limited Vehicle control apparatus and vehicle control method
JPWO2018105058A1 (en) * 2016-12-07 2019-10-24 本田技研工業株式会社 Vehicle control device
US11180143B2 (en) 2016-12-07 2021-11-23 Honda Motor Co., Ltd. Vehicle control device
JP2018205909A (en) * 2017-05-31 2018-12-27 本田技研工業株式会社 Processing device, vehicle, processing method, and program
US10960878B2 (en) 2017-08-03 2021-03-30 Toyota Jidosha Kabushiki Kaisha Control device for vehicle and control method for vehicle
JP2019028951A (en) * 2017-08-03 2019-02-21 トヨタ自動車株式会社 Vehicle controller
CN109383496A (en) * 2017-08-03 2019-02-26 丰田自动车株式会社 The control device of vehicle and the control method of vehicle
CN109383496B (en) * 2017-08-03 2022-05-17 丰田自动车株式会社 Vehicle control device and vehicle control method
US10759421B2 (en) 2017-08-03 2020-09-01 Toyota Jidosha Kabushiki Kaisha Control device for vehicle and control method for vehicle
CN111183430A (en) * 2018-08-10 2020-05-19 Jvc建伍株式会社 Recognition processing device, recognition processing method, and recognition processing program
EP3836074A4 (en) * 2018-08-10 2021-09-15 Jvckenwood Corporation Recognition processing device, recognition processing method and recognition processing program
JP2020027380A (en) * 2018-08-10 2020-02-20 株式会社Jvcケンウッド Recognition processing device, recognition processing method, and recognition processing program
JP7056458B2 (en) 2018-08-10 2022-04-19 株式会社Jvcケンウッド Recognition processing device, recognition processing method and recognition processing program
WO2020031413A1 (en) * 2018-08-10 2020-02-13 株式会社Jvcケンウッド Recognition processing device, recognition processing method and recognition processing program
US11465629B2 (en) 2018-08-10 2022-10-11 Jvckenwood Corporation Recognition processing apparatus, recognition processing method, and recognition processing program
CN111183430B (en) * 2018-08-10 2023-10-27 Jvc建伍株式会社 Identification processing device, identification processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP4456086B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
US9235990B2 (en) Vehicle periphery monitoring device
US9965957B2 (en) Driving support apparatus and driving support method
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP4173902B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
JP3263699B2 (en) Driving environment monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP5480925B2 (en) Vehicle periphery monitoring device
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
US7974445B2 (en) Vehicle periphery monitoring device, vehicle, and vehicle periphery monitoring program
US10866416B2 (en) Display control device and display control method
JP2006338594A (en) Pedestrian recognition system
JP3872179B2 (en) Vehicle collision prevention device
Suzuki et al. Sensor fusion-based pedestrian collision warning system with crosswalk detection
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP4813304B2 (en) Vehicle periphery monitoring device
JP5003473B2 (en) Warning device
JP5192007B2 (en) Vehicle periphery monitoring device
JP4762774B2 (en) Ranging device and vehicle periphery monitoring device
JP4823753B2 (en) Vehicle periphery monitoring device
JP3586938B2 (en) In-vehicle distance measuring device