JP2002098509A - Vehicle detecting device - Google Patents

Vehicle detecting device

Info

Publication number
JP2002098509A
JP2002098509A JP2000288954A JP2000288954A JP2002098509A JP 2002098509 A JP2002098509 A JP 2002098509A JP 2000288954 A JP2000288954 A JP 2000288954A JP 2000288954 A JP2000288954 A JP 2000288954A JP 2002098509 A JP2002098509 A JP 2002098509A
Authority
JP
Japan
Prior art keywords
vehicle
image
distance
infrared
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000288954A
Other languages
Japanese (ja)
Inventor
Koichi Kojima
浩一 小嶋
Masaki Chiba
正基 千葉
Takehiko Fujioka
健彦 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2000288954A priority Critical patent/JP2002098509A/en
Publication of JP2002098509A publication Critical patent/JP2002098509A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To detect a vehicle with ease and high-accuracy utilizing an infrared image. SOLUTION: An image position of an exhaust duct section photographed with brightness higher than a determined brightness is specified from an image area section that is estimated as a vehicle in the infrared image. Then, the image position of the exhaust duct section is set as a reference, and a frame having a determined rate in size is set for the image position in the upward, downward, left and right directions, and a pattern matching process is carried out using the frame. The distance to the vehicle is estimated on the basis of a view angle of infrared camera, a corresponding relation between the distance and pixels composing an imaging device of the camera, and the number of pixels from the underside of the infrared image to the image position of the exhaust duct section.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両検出装置に関
し、例えば、代表的な車両である自動車に適用して好適
な車両検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle detection device, and more particularly, to a vehicle detection device suitable for application to a typical vehicle such as an automobile.

【0002】[0002]

【従来の技術】従来より、代表的な車両である自動車の
分野においては、各種センサを用いて検出した周囲の走
行環境に応じて、ドライバの視覚を補うべく運転操作を
支援する技術、或いは、自動車を自動的に走行させる技
術が提案されている。
2. Description of the Related Art Conventionally, in the field of automobiles, which are typical vehicles, a technique for assisting a driving operation to supplement a driver's vision according to a surrounding driving environment detected by using various sensors, or 2. Description of the Related Art A technique for automatically driving an automobile has been proposed.

【0003】このような技術に採用されているセンシン
グ技術として、例えば特開平10−255019号に
は、可視光カメラによって撮影した画像に基づいて算出
したしきい値を用いて赤外線カメラによって撮影した画
像を2値化し、求めた2値化画像から自車両周囲に存在
する車両の位置を検出する技術が提案されている。
As a sensing technique employed in such a technique, for example, Japanese Patent Application Laid-Open No. H10-255019 discloses an image captured by an infrared camera using a threshold calculated based on an image captured by a visible light camera. Has been proposed in which the position of a vehicle existing around the host vehicle is detected from the obtained binarized image.

【0004】また、視認性の良くない走行環境における
ドライバの視覚を補助する技術として、特開昭60−2
31193号には、赤外線カメラによって撮影した画像
をディスプレイに表示する技術が提案されている。
As a technique for assisting a driver's vision in a traveling environment having poor visibility, Japanese Patent Application Laid-Open No. Sho 60-2 (1985) discloses a technique.
No. 31193 proposes a technique for displaying an image captured by an infrared camera on a display.

【0005】[0005]

【発明が解決しようとする課題】上記の従来技術によれ
ば、視認性の良くない走行環境におけるドライバの視覚
を効率的に補助することができる。
According to the above-mentioned prior art, it is possible to efficiently assist a driver's vision in a traveling environment having poor visibility.

【0006】しかしながら、赤外線を利用した検出方法
は、路面の温度変化や日光等の影響を受け易く、温度を
持つ物体は種類に関らず検出されていしまうので、検出
対象を特定の種類の物体(例えば自動車)に限定して検
出するのは容易ではない。
However, the detection method using infrared light is susceptible to changes in the temperature of the road surface and sunlight, and any object having a temperature is detected regardless of its type. (For example, an automobile), it is not easy to detect.

【0007】そこで本発明は、赤外画像を利用して車両
を容易且つ高精度に検出する車両検出装置の提供を目的
とする。
Accordingly, an object of the present invention is to provide a vehicle detection device that detects a vehicle easily and with high accuracy using an infrared image.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
め、本発明に係る車両検出装置は、以下の構成を特徴と
する。
In order to achieve the above object, a vehicle detecting device according to the present invention has the following features.

【0009】即ち、赤外線を用いて所定の撮像範囲を撮
像する赤外線カメラと、前記赤外線カメラによって撮影
された赤外画像に基づいて、その赤外画像に含まれると
ころの、前記撮像範囲内に存在する車両であると推定さ
れる部分画像領域を検出すると共に、検出した部分画像
領域に含まれる所定輝度より高輝度に撮影された排気管
部分の画像位置に基づいて、前記車両との距離を検出す
る検出手段とを備えることを特徴とする。
That is, an infrared camera for imaging a predetermined imaging range using infrared light, and an infrared camera included in the infrared image, which is included in the infrared image, based on the infrared image captured by the infrared camera. Detecting a partial image region estimated to be a vehicle to perform, and detecting a distance from the vehicle based on an image position of an exhaust pipe portion photographed with higher luminance than a predetermined luminance included in the detected partial image region. And a detection unit that performs the detection.

【0010】好適な実施形態において、前記検出手段
は、前記排気管部分の画像位置を基準として、その画像
位置に対して上下左右に所定割合のサイズを有するフレ
ームを設定し、そのフレームを用いて前記部分画像領域
に対するパターンマッチングを施すことにより、前記部
分画像領域が車両を表わす画像であるかを判定すると良
い。
[0010] In a preferred embodiment, the detecting means sets a frame having a predetermined ratio of size vertically and horizontally with respect to the image position based on the image position of the exhaust pipe portion, and uses the frame. It is preferable to determine whether the partial image region is an image representing a vehicle by performing pattern matching on the partial image region.

【0011】また、例えば前記検出手段には、前記撮像
範囲と、前記赤外線カメラの撮像デバイスを構成する画
素との距離に関する対応関係が予め記憶されており、前
記検出手段は、前記赤外画像の下辺から前記排気管部分
の画像位置までの画素数と、前記距離に関する対応関係
とに基づいて、前記車両との距離を検出すると良い。
[0011] Further, for example, the detecting means stores in advance a correspondence relationship regarding the distance between the imaging range and the pixels constituting the imaging device of the infrared camera. The distance to the vehicle may be detected based on the number of pixels from the lower side to the image position of the exhaust pipe portion and the correspondence relationship regarding the distance.

【0012】また、例えば前記検出手段には、検出対象
である車両までの距離と、その距離に応じた該車両の標
準的な車幅に対応するところの、前記赤外画像における
画素数との対応関係が予め記憶されており、前記検出手
段は、前記赤外画像によって検出した距離と、前記車幅
に関する対応関係とに基づいて、前記車両の車幅を推定
すると良い。
Further, for example, the detecting means includes a distance to a vehicle to be detected and a number of pixels in the infrared image corresponding to a standard vehicle width of the vehicle corresponding to the distance. The correspondence is stored in advance, and the detecting unit may estimate the vehicle width of the vehicle based on the distance detected by the infrared image and the correspondence related to the vehicle width.

【0013】[0013]

【発明の効果】上記の本発明によれば、赤外画像を利用
して車両を容易且つ高精度に検出する車両検出装置の提
供が実現する。
According to the present invention described above, it is possible to provide a vehicle detecting device that detects a vehicle easily and with high accuracy using an infrared image.

【0014】即ち、請求項1の発明によれば、内燃機関
によって駆動される車両には一般的に略同様な位置に設
けられている排気管の部分が、赤外画像において最も高
輝度に撮影されることを利用して、比較的シンプルな処
理構成により、容易且つ高精度に車両を検出することが
できる。
That is, according to the first aspect of the present invention, a portion of an exhaust pipe provided at a substantially similar position in a vehicle driven by an internal combustion engine is photographed with the highest luminance in an infrared image. By utilizing this, a vehicle can be easily and accurately detected with a relatively simple processing configuration.

【0015】また、一般に、車両における排気管の取り
付け位置と、その車両の全体の断面形状との関係は略同
様であるので、請求項2の発明によれば、その位置関係
を排気管部分を基準とする割合として予め記憶しておく
ことにより、部分画像領域の大きさに関らず、適切なフ
レーム(テンプレート)を用いたパターンマッチングに
より、容易且つ高精度に車両を検出することができる。
In general, the relationship between the mounting position of an exhaust pipe in a vehicle and the overall cross-sectional shape of the vehicle is substantially the same. By storing in advance as the reference ratio, the vehicle can be detected easily and with high precision by pattern matching using an appropriate frame (template) regardless of the size of the partial image area.

【0016】また、請求項3の発明によれば、赤外画像
だけを用いて容易且つ高精度に車両までの距離を検出す
ることができる。
According to the third aspect of the present invention, the distance to the vehicle can be easily and accurately detected using only the infrared image.

【0017】また、請求項4の発明によれば、赤外画像
だけを用いて容易且つ高精度に車両の幅を推定すること
ができる。
Further, according to the invention of claim 4, it is possible to easily and accurately estimate the width of the vehicle using only the infrared image.

【0018】[0018]

【発明の実施の形態】以下、本発明を、自動車等の車両
の警報システムに適用した実施形態として、図面を参照
して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the drawings as an embodiment applied to a warning system for a vehicle such as an automobile.

【0019】図1は、本実施形態における警報システム
が搭載された車両の装置構成を示すブロック図である。
FIG. 1 is a block diagram showing a device configuration of a vehicle equipped with an alarm system according to the present embodiment.

【0020】同図に示す車両100において、1は、自
車両の前方を走行する他車両との車間距離を検出するレ
ーザーレーダ、或いはミリ波レーダ等の距離センサ(以
下、LR)である。2は、赤外線(近赤外線及び遠赤外
線を含む)を利用した撮像装置(赤外線カメラ)を用い
て、自車両の前方の所定の撮像範囲を撮影する画像セン
サ(以下、IS)である。
In the vehicle 100 shown in FIG. 1, reference numeral 1 denotes a distance sensor (hereinafter, LR) such as a laser radar or a millimeter-wave radar for detecting an inter-vehicle distance from another vehicle traveling ahead of the own vehicle. Reference numeral 2 denotes an image sensor (hereinafter, IS) that captures a predetermined imaging range in front of the vehicle using an imaging device (infrared camera) using infrared rays (including near infrared rays and far infrared rays).

【0021】3は、自車両の速度を減速させるブレーキ
アクチュエータである。4は、自車両の速度を調整する
エンジンスロットルの開度を調整するスロットルアクチ
ュエータである。尚、車両100の速度調整には、自動
変速機を併用しても良い。
Reference numeral 3 denotes a brake actuator for reducing the speed of the host vehicle. Reference numeral 4 denotes a throttle actuator for adjusting the opening of an engine throttle for adjusting the speed of the host vehicle. Note that an automatic transmission may be used together to adjust the speed of the vehicle 100.

【0022】ここで、LR1とIS2とは、図1(b)
に示すように、車両100の車幅方向に略同じであっ
て、バンパー近傍において車両上下方向に重ねられるよ
うに搭載されており、上述したLR1及びIS2は、図
2に示すように当該センサの搭載位置から垂直上方向を
+Y方向、右横方向を+X方向、そして自車両の前方方
向を+Z方向とする座標系を基準としている。
Here, LR1 and IS2 are shown in FIG.
As shown in FIG. 2, the LR1 and the IS2 are substantially the same in the vehicle width direction of the vehicle 100, and are mounted near the bumper so as to be overlapped in the vehicle vertical direction. The coordinate system is such that a vertical upward direction from the mounting position is a + Y direction, a right lateral direction is a + X direction, and a forward direction of the vehicle is a + Z direction.

【0023】また、本実施形態において、IS2が図1
(b)に示すようにバンパーの下方に搭載される理由
は、検出対象である他車両の後部バンパーの下方に位置
する排気管の周辺を、IS2による撮影を容易にするた
めである。
Further, in the present embodiment, IS2 corresponds to FIG.
The reason for mounting below the bumper as shown in (b) is to make it easier to photograph the periphery of the exhaust pipe located below the rear bumper of another vehicle to be detected by IS2.

【0024】また、これら2種類のセンサLR1及びI
S2の検出範囲は、図3に示すように、IS2の検出範
囲がLR1の検出範囲を内包するように設定されてい
る。また、LR1の検出範囲(所定の検出波の走査範囲
(伝搬範囲))は、垂直方向に所定の仰角をなす立体的
な領域であり、その領域範囲内に存在する物体までの距
離と方向(角度)とを検出する。
The two types of sensors LR1 and LR1
As shown in FIG. 3, the detection range of S2 is set such that the detection range of IS2 includes the detection range of LR1. The detection range of LR1 (scanning range (propagation range) of a predetermined detection wave) is a three-dimensional region forming a predetermined elevation angle in the vertical direction, and the distance and direction to an object existing in the region range. Angle).

【0025】尚、本実施形態では、説明の便宜上、LR
1及びIS2の搭載位置を図1(b)に示すように配置
するが、搭載スペースの関係から実際には車幅方向にず
らして実装する場合には、それらセンサのずれ量がオフ
セットされた同一の座標系に変換することにより、計算
上は図2に示す座標系に調整すると良い。
In the present embodiment, for convenience of explanation, LR
1 and 2 are arranged as shown in FIG. 1B. However, when mounting is actually shifted in the vehicle width direction due to the mounting space, the same amount of offset of the sensors is offset. It is preferable to adjust the coordinate system to the coordinate system shown in FIG.

【0026】次に、5は、本実施形態において少なくと
も自車両と前方の他車両との車間距離に関する警報音の
出力を行うスピーカである。6は、車両100のワイパ
ーの動作オン・オフ、動作速度、並びに動作周期の設定
をドライバが可能なワイパスイッチであり、本実施形態
では、ワイパスイッチ6の操作状態により、周囲の走行
環境が雨天や濃霧等の荒天状態であるかを推定する。
Reference numeral 5 denotes a speaker that outputs an alarm sound at least relating to the inter-vehicle distance between the host vehicle and another vehicle ahead in the present embodiment. Reference numeral 6 denotes a wiper switch that allows a driver to set the operation of the wiper of the vehicle 100 on / off, the operation speed, and the operation cycle. It is estimated whether it is in stormy weather such as fog or dense fog.

【0027】7は、IS2によって撮像した画像(以
下、赤外画像)の表示や、各種情報の表示を行う表示装
置である。8は、車両100に対する日光の照度を検出
することにより、周囲の走行環境が晴天状態であるかを
検出する照度センサである。
Reference numeral 7 denotes a display device for displaying an image captured by IS2 (hereinafter, infrared image) and displaying various information. Reference numeral 8 denotes an illuminance sensor that detects whether or not the surrounding traveling environment is in a fine weather state by detecting the illuminance of sunlight on the vehicle 100.

【0028】9は、車両100の速度を検出する速度セ
ンサである。10は、外部より受信したGPS(グロー
バル・ポジショニング・システム)信号に基づいて車両
100の現在位置を検出するGPSセンサであり、本実
施形態では、現在時刻の検出にも利用する。
Reference numeral 9 denotes a speed sensor for detecting the speed of the vehicle 100. Reference numeral 10 denotes a GPS sensor that detects the current position of the vehicle 100 based on a GPS (global positioning system) signal received from the outside. In the present embodiment, the GPS sensor 10 is also used to detect the current time.

【0029】そして、ECU(電子制御ユニット)11
は、上述した各種センサにより入手した情報に基づい
て、車間距離に関する警報をドライバに対してスピーカ
5から報知すると共に、ブレーキアクチュエータ3及び
/またはスロットルアクチュエータ4を制御することに
より、自車両の前方に存在する他車両との車間距離が所
定距離に維持する。ECU11には、不図示のマイクロ
コンピュータが搭載されており、予めメモリに格納され
たプログラムやパラメータに従って、CPUが動作する
ことにより、以下に説明する警報・制御処理を実現す
る。
Then, an ECU (electronic control unit) 11
In accordance with the information obtained by the various sensors described above, a warning regarding the following distance is notified to the driver from the speaker 5 and the brake actuator 3 and / or the throttle actuator 4 are controlled, so that the The inter-vehicle distance with another existing vehicle is maintained at a predetermined distance. A microcomputer (not shown) is mounted on the ECU 11, and the CPU operates according to programs and parameters stored in a memory in advance, thereby realizing an alarm / control process described below.

【0030】[警報・制御処理]図4は、本実施形態に
おけるECU11が実行する警報・制御処理のフローチ
ャートを示す図であり、例えばイグニッションスイッチ
(不図示)がドライバによってオン状態に設定されるこ
とによって開始される。
[Alarm / Control Process] FIG. 4 is a flowchart showing an alarm / control process executed by the ECU 11 in the present embodiment. For example, an ignition switch (not shown) is set to an ON state by a driver. Started by

【0031】同図において、ステップS1:LR1及び
IS2のそれぞれの検出結果に基づくセンサフュージョ
ンにより、車両100の前方に存在する車両(先行車
両)の存在を認識すると共に、その車両と自車両との相
対的な距離情報(車間距離、速度)を取得する(詳細は
後述する)。
In FIG. 3, step S1: the presence of a vehicle (preceding vehicle) existing in front of the vehicle 100 is recognized by sensor fusion based on the detection results of LR1 and IS2, and the vehicle and its own vehicle are connected. Acquire relative distance information (inter-vehicle distance, speed) (details will be described later).

【0032】ステップS2:車速センサ9の検出結果に
より、自車速を検出する。
Step S2: The own vehicle speed is detected based on the detection result of the vehicle speed sensor 9.

【0033】ステップS3〜ステップS5:例えば図5
に示すような危険判断の基準特性を予めルックアップテ
ーブル(LUT)としてROM等の記憶デバイスに記憶
しておき、ステップS1及びステップS2にて取得した
距離情報及び自車速に基づいて相対速度を算出すると共
に、該LUTを、算出した相対速度と、ステップS1に
て求めた車間距離とに従って参照することにより、ブレ
ーキアクチュエータ3及び/またはスロットルアクチュ
エータ4を駆動する車間距離制御を実行すべき危険な状
態か、スピーカ5からの警報音の出力を実行すべき危険
な状態かを判断する(ステップS3)。そして、この判
断結果により、危険ではないときにはステップS1にリ
ターンし、警報が必要な場合にはスピーカ5による警報
音の出力及び表示装置7へのガイダンス表示等を行い
(ステップS4)、警報に加えて車間距離制御の実行が
必要な場合には、ブレーキアクチュエータ3及び/また
はスロットルアクチュエータ4を駆動を制御することに
より、車間距離を制御し(ステップS5)、その後、ス
テップS1にリターンする。
Steps S3 to S5: FIG.
Is stored in advance in a storage device such as a ROM as a look-up table (LUT), and a relative speed is calculated based on the distance information and the own vehicle speed obtained in steps S1 and S2. At the same time, by referring to the LUT in accordance with the calculated relative speed and the inter-vehicle distance obtained in step S1, a dangerous state in which the inter-vehicle distance control for driving the brake actuator 3 and / or the throttle actuator 4 should be executed. It is determined whether or not it is a dangerous state to output the alarm sound from the speaker 5 (step S3). Then, based on the result of the determination, when it is not dangerous, the process returns to step S1, and when an alarm is required, an alarm sound is output from the speaker 5 and guidance is displayed on the display device 7 (step S4). When it is necessary to execute the following distance control, the following distance is controlled by controlling the driving of the brake actuator 3 and / or the throttle actuator 4 (step S5), and thereafter, the process returns to step S1.

【0034】[車両認識処理]以下、本実施形態におい
て図4のステップS1にて行われるところの、車両認識
処理について詳細に説明する。
[Vehicle Recognition Processing] Hereinafter, the vehicle recognition processing performed in step S1 of FIG. 4 in the present embodiment will be described in detail.

【0035】図6は、本実施形態におけるECU11が
実行する車両認識処理を示すフローチャートであり、同
図に示すように、ステップS1(図4)では、IS2を
用いた車両の認定処理(ステップS11)と、LR1を
用いた車両の認定処理(ステップS12)とが並行して
行われ、ステップS13における車両認識処理では、ス
テップS11及びステップS12におけるIS2及びL
R1の検出結果に基づくセンサフュージョンにより、最
終的な車両認識結果が算出される。そして、ステップS
13にて算出された車両認識結果は、本実施形態ではス
テップS3の危険判断に利用される。
FIG. 6 is a flowchart showing a vehicle recognition process executed by the ECU 11 in this embodiment. As shown in FIG. 6, in step S1 (FIG. 4), a vehicle qualification process using IS2 (step S11) is performed. ) And the vehicle recognition process using LR1 (step S12) are performed in parallel. In the vehicle recognition process in step S13, IS2 and L2 in steps S11 and S12 are used.
The final vehicle recognition result is calculated by sensor fusion based on the detection result of R1. And step S
In the present embodiment, the vehicle recognition result calculated in 13 is used for danger determination in step S3.

【0036】以下、図6に示す各ステップの詳細な処理
手順について説明する。
Hereinafter, a detailed processing procedure of each step shown in FIG. 6 will be described.

【0037】<IS2による車両の認定処理>まず、I
S2による車両の認定処理について、図7乃至図14を
参照して説明する。
<Vehicle Certification Processing by IS2>
The vehicle certification process in S2 will be described with reference to FIGS.

【0038】はじめに、IS2による車両の認定処理を
概説する。本実施形態において、IS2による車両の認
定処理は、大別して、赤外線カメラ(IS2)によって
撮像された赤外画像の全体を対象として行われる「車両
画像の概略推定処理」と、その概略推定処理によって推
定された部分画像領域に対して個別に行われる「車両検
出処理」とにより構成される。
First, an outline of the vehicle certification process by IS2 will be described. In the present embodiment, the vehicle qualification process based on IS2 is roughly divided into “vehicle image rough estimation process” performed on the entire infrared image captured by the infrared camera (IS2), and the rough estimation process. This is configured by “vehicle detection processing” individually performed on the estimated partial image area.

【0039】まず、車両画像の概略推定処理では、赤外
画像(図7に例示する赤外画像21参照)の全体に含ま
れるところの、車両(車両の断面形状)である可能性が
高い部分画像領域(図7に例示する部分画像領域24)
を推定する。
First, in the rough estimation process of the vehicle image, a portion which is included in the entirety of the infrared image (see the infrared image 21 illustrated in FIG. 7) and which is likely to be a vehicle (cross-sectional shape of the vehicle). Image area (partial image area 24 illustrated in FIG. 7)
Is estimated.

【0040】次に、車両検出処理は、内燃機関によって
駆動される一般的な車両を検出対象の物体として、車両
画像の概略推定処理によって推定された部分画像領域か
ら、その領域内に含まれる所定輝度より高輝度な箇所
を、排気管の取り付け位置(図7に例示する排気管の領
域画像23)として検出し、検出した高輝度な箇所を基
準とする所定サイズのフレームを該部分画像領域に対し
て用いるパターンマッチング処理を施すことにより、該
部分画像領域が表わす物体が車両であることを特定する
と共に、特定された物体の位置及び速度を検出する。
Next, in the vehicle detection processing, a general vehicle driven by an internal combustion engine is set as a detection target object, and a predetermined image included in the partial image area estimated by the rough estimation processing of the vehicle image is included in the area. A portion higher in brightness than the brightness is detected as an exhaust pipe attachment position (the exhaust pipe region image 23 illustrated in FIG. 7), and a frame of a predetermined size based on the detected high brightness portion is set in the partial image region. By performing the pattern matching process used for this, it is specified that the object represented by the partial image region is a vehicle, and the position and speed of the specified object are detected.

【0041】このとき、ECU11には、当該所定輝度
として、赤外線カメラによって排気管を含む一般的な車
両が撮像されたときの、その排気管の領域の標準的な輻
射熱量に基づく値を予めROM等のメモリに記憶してお
くと共に、係る車両における排気管の標準的な取り付け
位置と、その車両の断面形状との関係を表わす特徴情報
とを予めROM等のメモリに記憶しておく。
At this time, the ECU 11 previously stores in the ROM a value based on a standard amount of radiant heat in the area of the exhaust pipe when a general vehicle including the exhaust pipe is imaged by the infrared camera as the predetermined luminance. And characteristic information representing the relationship between the standard mounting position of the exhaust pipe in the vehicle and the cross-sectional shape of the vehicle is stored in advance in a memory such as a ROM.

【0042】そして、パターンマッチング処理に際して
は、上記の特徴情報を参照することにより、所定輝度よ
り高輝度な排気管の取り付け位置を基準として上下左右
に所定割合のサイズを有するフレームと、注目している
部分画像領域に対して設定すする(詳細は図11を参照
して後述する)。
At the time of the pattern matching process, by referring to the above-mentioned feature information, a frame having a predetermined ratio of size in the upper, lower, left, and right directions with respect to the mounting position of the exhaust pipe having a luminance higher than the predetermined luminance is noted. This is set for a partial image area that is present (details will be described later with reference to FIG. 11).

【0043】図8は、本実施形態におけるECU11が
実行するIS2による車両の認定処理を示すフローチャ
ートであり、図6のステップS11の詳細な処理手順を
示す。
FIG. 8 is a flowchart showing a vehicle qualification process by the IS2 executed by the ECU 11 in this embodiment, and shows a detailed processing procedure of step S11 in FIG.

【0044】図8において、ステップS21〜ステップ
S23:赤外線カメラの1フレーム分の撮影画像(赤外
画像)を入力し(ステップS21)、上記の如く概説し
た車両画像の概略推定処理を行うタイミングを決定する
ために使用するカウンタCの計数値を0にリセットし
(ステップS22)、当該1フレーム分の赤外画像の中
から検出された部分画像領域の数量(物体数X)を0に
リセットする(ステップS23)。
In FIG. 8, steps S21 to S23: The timing at which the captured image (infrared image) for one frame of the infrared camera is input (step S21), and the process of roughly estimating the vehicle image outlined above is performed. The count value of the counter C used for determination is reset to 0 (step S22), and the number of partial image areas detected from the one frame of the infrared image (the number of objects X) is reset to 0. (Step S23).

【0045】尚、赤外線カメラ及びECU11の制御周
期と比較して、検出対象である車両の動作は緩慢なた
め、本実施形態では、ECU11の演算処理の負担を軽
減すべく、赤外線カメラの制御周期(本実施形態では1
00msec)毎に入力される赤外画像に対して行われ
る車両検出処理の実行頻度に対して、車両画像の概略推
定処理は10フレーム毎に行う。
Since the operation of the vehicle to be detected is slower than the control cycle of the infrared camera and the ECU 11, the control cycle of the infrared camera is reduced in this embodiment in order to reduce the load of the arithmetic processing of the ECU 11. (In this embodiment, 1
In contrast to the execution frequency of the vehicle detection process performed on the infrared image input every 00 msec), the vehicle image rough estimation process is performed every 10 frames.

【0046】ステップS24,ステップS25:カウン
タCの計数値が0であるかを判断し(ステップS2
4)、この判断でカウンタC=0のときには、新たに入
力された1フレーム分の赤外画像全体に対して車両画像
の概略推定処理を行うことにより、車両の断面形状であ
ると推定した部分画像領域の赤外画像内における位置の
特定すると共に、推定した部分画像領域の全数量を物体
数Xに設定し(ステップS25:詳細は図9を参照して
後述する)、ステップS26に進む。
Steps S24 and S25: It is determined whether or not the count value of the counter C is 0 (step S2).
4) When the counter C = 0 in this determination, the portion that is estimated to be the cross-sectional shape of the vehicle is obtained by performing a rough estimation process of the vehicle image on the entire newly input infrared image for one frame. The position of the image area in the infrared image is specified, and the total quantity of the estimated partial image area is set to the number of objects X (step S25: details will be described later with reference to FIG. 9), and the process proceeds to step S26.

【0047】ステップS26〜ステップS28:一方、
カウンタC≠0のときには、上記の如く概説した車両検
出処理を、ステップS25にて設定されたX個の部分画
像領域(物体の画像)に対して個々に行うステップS2
6の一連の処理(詳細は図10を参照して後述する)
を、そのステップS26の処理が終了する度にカウンタ
Cの計数値を1加算しながら、計数値が9になるまで繰
り返し(ステップS27,ステップS28)、当該計数
値が9になったときにはステップS21にリターンす
る。
Steps S26 to S28: On the other hand,
If the counter C ≠ 0, the vehicle detection process outlined above is individually performed on the X partial image areas (object images) set in step S25 in step S2.
6 (the details will be described later with reference to FIG. 10)
Is repeated while the count value of the counter C is incremented by 1 each time the process of step S26 is completed (steps S27 and S28), and when the count value becomes 9, the process proceeds to step S21. Return to

【0048】(車両画像の概略推定処理)図9は、IS
2による車両の認定処理のうち、車両画像の概略推定処
理(図8のステップS25)の詳細を示すフローチャー
トである。
(Schematic Estimation Processing of Vehicle Image) FIG.
9 is a flowchart showing details of a vehicle image rough estimation process (step S25 in FIG. 8) in the vehicle certification process according to No. 2;

【0049】同図において、ステップS31:赤外線カ
メラから新たな処理対象として、1フレーム分の赤外画
像を入力する。
In the figure, step S31: One frame of infrared image is input from the infrared camera as a new processing object.

【0050】ステップS32,ステップS33:入力さ
れた赤外画像の特徴を検出すべく、まず、縦方向(Y方
向)の微分画像(ステップS32)と、横方向(X方
向)の微分画像(ステップS33)とを生成する。より
具体的に、ステップS32では、[1,0,−1]T
1−3行列を用いて、赤外画像の全体に対して、縦方向
のデジタルフィルタ処理を施す。また、ステップS33
では、[1,0,−1]の3−1行列を用いて、赤外画
像の全体に対して横方向のデジタルフィルタ処理を施
す。
Steps S32 and S33: To detect the features of the input infrared image, first, a differential image in the vertical direction (Y direction) (step S32) and a differential image in the horizontal direction (X direction) (step S32) S33) is generated. More specifically, in step S32, digital filtering in the vertical direction is performed on the entire infrared image using a 1-3 matrix of [1, 0, -1] T. Step S33
Then, the digital filter processing in the horizontal direction is performed on the entire infrared image using the 3-1 matrix of [1, 0, -1].

【0051】ステップS34,ステップS35:上記の
両ステップにて生成した2方向の微分画像の論理積(A
ND)を採り(ステップS34)、その結果得られる微
分画像の縦方向の微分値の累積を採り、算出した累積値
は、後述するステップS39及びステップS40におい
て当該赤外画像から車両の部分画像領域以外の領域を除
去するためのしきい値として設定する(ステップS3
5)。
Steps S34 and S35: The logical product (A of the differential images in the two directions generated in the above two steps)
ND) (step S34), and accumulates the vertical differential values of the differential image obtained as a result. The calculated cumulative value is used as the partial image area of the vehicle from the infrared image in step S39 and step S40 described later. (Step S3)
5).

【0052】ステップS36,ステップS37:後述す
るステップS39及びステップS40において当該赤外
画像から車両の部分画像領域以外の領域(即ち、空領
域、道路領域)を除去する際の濃度基準とすべく、入力
された赤外画像の中央上方の所定画素の濃度値を、当該
赤外画像における空領域の濃度値としてサンプリングし
(ステップS36)、中央下方の所定画素の濃度値を、
当該赤外画像における道路領域の濃度値としてサンプリ
ングする(ステップS37)。
Steps S36 and S37: In Steps S39 and S40, which will be described later, in order to use as a density reference when removing an area other than the partial image area of the vehicle (ie, sky area and road area) from the infrared image, The density value of the predetermined pixel above the center of the input infrared image is sampled as the density value of the sky region in the infrared image (step S36), and the density value of the predetermined pixel below the center is calculated as
Sampling is performed as the density value of the road area in the infrared image (step S37).

【0053】尚、本実施形態では、濃度値を参照する所
定画素を、一例として赤外画像の中央上方及び下方とし
たが、ナビゲーション装置等によって外部より自車両前
方の道路形状に関する情報を取得可能な場合は、その情
報に応じて、参照すべき画素位置を適宜変更すると良
い。
In the present embodiment, the predetermined pixels that refer to the density value are set, for example, above and below the center of the infrared image. However, information about the road shape ahead of the host vehicle can be acquired from outside using a navigation device or the like. In such a case, the position of the pixel to be referred to may be appropriately changed according to the information.

【0054】ステップS38:後述するステップS39
及びステップS40において横方向の領域判定しきい値
として使用するところの、当該赤外画像の左右濃度(左
端と右端)の差分値を設定する。
Step S38: Step S39 to be described later
Then, a difference value between the left and right densities (left end and right end) of the infrared image to be used as the horizontal region determination threshold in step S40 is set.

【0055】ステップS39:本ステップでは、当該赤
外画像の全体領域から空領域の画像部分を除去する。即
ち、ステップS36にてサンプリングした濃度値以下で
あってステップS38にて設定した左右濃度のしきい値
以下という条件により、ステップS1にて入力された赤
外画像を当該画像の上から走査すると共に、ステップS
35にて設定した微分累積値のしきい値以下という条件
により、ステップS34にて算出した微分画像を当該画
像の上から走査する。そして、走査によって除去された
空領域の画像部分には、所定の濃度値(例えば黒)を設
定する。
Step S39: In this step, the image portion of the sky region is removed from the entire region of the infrared image. That is, under the condition that the density is equal to or less than the density value sampled in step S36 and equal to or less than the left and right density threshold value set in step S38, the infrared image input in step S1 is scanned from above the image and , Step S
The differential image calculated in step S34 is scanned from above the image under the condition that the threshold value is equal to or less than the threshold value of the differential cumulative value set in 35. Then, a predetermined density value (for example, black) is set in the image portion of the sky area removed by the scanning.

【0056】ステップS40:本ステップでは、当該赤
外画像の全体領域から道路領域の画像部分を除去する。
即ち、ステップS37にてサンプリングした濃度値以下
であってステップS38にて設定した左右濃度のしきい
値以下という条件により、ステップS1にて入力された
赤外画像を当該画像の下から走査すると共に、ステップ
S35にて設定した微分累積値のしきい値以下という条
件により、ステップS34にて算出した微分画像を当該
画像の下から走査する。そして、走査によって除去され
た道路領域の画像部分には、所定の濃度値(例えば黒)
を設定する。
Step S40: In this step, the image portion of the road region is removed from the entire region of the infrared image.
That is, under the condition that the density is equal to or less than the density value sampled in step S37 and equal to or less than the threshold value of the left and right density set in step S38, the infrared image input in step S1 is scanned from below the image and Under the condition that the differential accumulated value is not more than the threshold value set in step S35, the differential image calculated in step S34 is scanned from below the image. Then, a predetermined density value (for example, black) is added to the image portion of the road area removed by the scanning.
Set.

【0057】ステップS41:ステップS37にてサン
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる車両の画像部分の濃度値Bを、
B=(サンプリング濃度値)×A(本実施形態では、A
>T1=1.0)なる計算によって推定する。
Step S41: By referring to the density value of the road area sampled in step S37,
The density value B of the image portion of the vehicle included in the infrared image is
B = (sampling density value) × A (In the present embodiment, A
> T1 = 1.0).

【0058】ステップS42:ステップS41にて算出
した濃度値Bを利用して、ステップS1にて入力された
赤外画像を2値化する。本ステップにて算出される2値
化画像は、車両である可能性が高い高濃度部分の画像で
ある。
Step S42: The infrared image input in step S1 is binarized using the density value B calculated in step S41. The binarized image calculated in this step is an image of a high density portion that is highly likely to be a vehicle.

【0059】ステップS43:ステップS339及びス
テップS40にて空領域及び道路領域が除去された2つ
の画像と、ステップS42にて算出された2値化画像と
の論理積(AND)を採ることにより、車両の輪郭画像
(図7の領域24)である可能性が高い部分画像領域
(エッジ画像領域)が得られる。
Step S43: By taking the logical product (AND) of the two images from which the sky area and the road area have been removed in steps S339 and S40 and the binarized image calculated in step S42. A partial image area (edge image area) that is likely to be a contour image of the vehicle (the area 24 in FIG. 7) is obtained.

【0060】(車両検出処理)図10は、IS2による
車両の認定処理のうち、車両検出処理(図8のステップ
S26)の詳細を示すフローチャートである。
(Vehicle Detection Processing) FIG. 10 is a flowchart showing details of the vehicle detection processing (step S26 in FIG. 8) of the vehicle certification processing by IS2.

【0061】同図において、ステップS51,ステップ
S52:赤外線カメラから新たな処理対象として、1フ
レーム分の赤外画像を入力し(ステップS51)、その
赤外画像の中央下方の画素の濃度値をサンプリングする
ことにより、図9のステップS37と同様に道路領域の
濃度値を入手する(ステップS52)。
In the figure, step S51, step S52: An infrared image for one frame is input as a new processing object from the infrared camera (step S51), and the density value of the pixel below the center of the infrared image is determined. By sampling, the density value of the road area is obtained as in step S37 in FIG. 9 (step S52).

【0062】ステップS53:ステップS52にてサン
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる排気管領域の画像部分の濃度値
Dを、D=(サンプリング濃度値)×F(本実施形態で
は、F>T2=2.0>T1)なる計算によって推定す
る。
Step S53: By referring to the density value of the road area sampled in step S52,
The density value D of the image portion of the exhaust pipe region included in the infrared image is estimated by a calculation of D = (sampling density value) × F (F> T2 = 2.0> T1 in the present embodiment).

【0063】ステップS54:ステップS53にて算出
した濃度値Dをしきい値として利用して、ステップS5
1にて入力された赤外画像を2値化する。本ステップに
て算出される2値化画像は、排気管である可能性が高い
高濃度部分の画像(図7の領域23)であり、この2値
化画像の当該赤外画像の全体における位置を、排気管部
分の画像位置として設定する。
Step S54: Using the density value D calculated in step S53 as a threshold value, step S5
In step 1, the infrared image input is binarized. The binarized image calculated in this step is an image of a high-density portion (region 23 in FIG. 7) which is likely to be an exhaust pipe, and the position of this binarized image in the entire infrared image Is set as the image position of the exhaust pipe portion.

【0064】ここで、本ステップにて使用する濃度値D
が十分に大きくない場合、算出される2値化画像は、車
両の排気口周辺を含む画像(図7の領域22)となって
しまうので、排気管の画像位置を基準として利用する本
実施形態には好ましくない。
Here, the density value D used in this step is
Is not sufficiently large, the calculated binarized image becomes an image including the vicinity of the exhaust port of the vehicle (the area 22 in FIG. 7). Therefore, the present embodiment uses the image position of the exhaust pipe as a reference. Is not preferred.

【0065】ステップS55:本実施形態において、E
CU11には、赤外線カメラの撮像範囲である画角(図
3参照)と、その赤外線カメラの撮像デバイス(例えば
CCD:Charge Coupled Device)を構成する画素との
距離に関する対応関係が予め記憶されている。そこで、
本ステップでは、ステップS54にて設定した排気管部
分の画像位置(図11の排気管領域の画像26)を基準
として、当該赤外画像の下辺から当該排気管部分の画像
位置までの画素数と、上記の距離に関する対応関係とに
基づいて、自車両の前方に存在する他車両との距離(即
ち、他車両の位置:図11の距離ZIR)を推定すると
共に、前回の制御周期における本ステップにて推定した
当該他車両との距離を参照することにより、単位時間当
たりの変化率を、自車両と当該他車両との相対速度とし
て算出する。
Step S55: In this embodiment, E
The CU 11 stores in advance a correspondence relationship between an angle of view (see FIG. 3), which is an imaging range of the infrared camera, and a distance between pixels constituting an imaging device (for example, a CCD: Charge Coupled Device) of the infrared camera. . Therefore,
In this step, the number of pixels from the lower side of the infrared image to the image position of the exhaust pipe portion is determined based on the image position of the exhaust pipe portion (the image 26 of the exhaust pipe region in FIG. 11) set in step S54. Based on the above-mentioned correspondence relation with respect to the distance, the distance to the other vehicle existing in front of the own vehicle (that is, the position of the other vehicle: the distance ZIR in FIG. 11) is estimated, and this step in the previous control cycle is performed. The change rate per unit time is calculated as the relative speed between the own vehicle and the other vehicle by referring to the distance to the other vehicle estimated in.

【0066】ステップS56:ECU11には、図12
に示すように、検出対象である車両までの距離と、その
距離に応じた該車両の標準的な車幅に対応するところ
の、赤外画像における画素数との対応関係が予めルック
アップテーブルとして記憶されており、本ステップで
は、当該赤外画像を利用して推定した距離ZIRに従っ
て図12のルックアップテーブルを参照することより、
排気管領域の画像26に排気管が撮影されている車両の
車幅W(画素数)を推定する。
Step S56: FIG.
As shown in the table, the correspondence between the distance to the vehicle to be detected and the number of pixels in the infrared image corresponding to the standard vehicle width of the vehicle according to the distance is stored in advance as a lookup table. In this step, by referring to the lookup table in FIG. 12 according to the distance ZIR estimated using the infrared image,
The vehicle width W (the number of pixels) of the vehicle whose exhaust pipe is photographed in the image 26 of the exhaust pipe area is estimated.

【0067】尚、IS2による赤外画像に基づく距離検
出の精度と、LR1による障害物までの距離検出の精度
とを比較した場合は、LR1による場合の方が検出精度
に優れる。
When the accuracy of the distance detection based on the infrared image by the IS2 is compared with the accuracy of the distance detection to the obstacle by the LR1, the detection accuracy by the LR1 is superior.

【0068】そこで、上記のステップS56では、車幅
W(画素数)の推定を、赤外画像に基づいて算出した距
離ZIRと、図12に示すルックアップテーブルとを利
用して算出したが、この方法は、LR1及びIS2によ
る重複した検出領域(以下、第2検出範囲)に車両が検
出されている場合に採用する。
In step S56, the vehicle width W (the number of pixels) is estimated using the distance ZIR calculated based on the infrared image and the lookup table shown in FIG. This method is adopted when a vehicle is detected in an overlapping detection area (hereinafter, a second detection range) based on LR1 and IS2.

【0069】そして、前回までの制御周期において後述
するセンサフュージョンによる最終的な車両特定がなさ
れており(即ち、両方式によって個別に検出された車両
が同一車両であるか否かの認定結果が求められてお
り)、且つLR1による検出結果によって対応する車両
(グループ)までの距離ZLRが検出されている場合に
は、検出されていた車両が、第2検出範囲から検出領域
が重複していないIS2による単独の検出領域(以下、
第1検出範囲)に移動したとき、その距離ZLRに従っ
て図12に示すルックアップテーブルを参照することに
より、精度の高い車幅W(画素数)の推定を行う。或い
は、センサフュージョンによる最終的な車両特定が同様
になされている場合には、後述するLR1による車両の
認定処理のグループ化処理(図15のステップS75)
において2つのブロックを1グループにまとめるとき
に、それらブロック間の距離(車体後面の左右端部にあ
るリフレクタ間の距離に対応する長さ)に応じて標準的
な車幅(画素数)を求めておき、その値をステップS5
6において採用しても良い。
In the control cycle up to the last time, the final vehicle specification is performed by the sensor fusion described later (that is, the result of determination as to whether or not the vehicles individually detected by both methods are the same vehicle is obtained. If the distance ZLR to the corresponding vehicle (group) is detected based on the detection result of LR1, the detected vehicle is located in IS2 where the detection areas do not overlap from the second detection range. Single detection area (hereinafter, referred to as
When moving to the (first detection range), the vehicle width W (the number of pixels) is estimated with high accuracy by referring to the look-up table shown in FIG. 12 according to the distance ZLR. Alternatively, when the final vehicle identification by the sensor fusion is performed in the same manner, the grouping processing of the vehicle recognition processing by the LR1 described later (step S75 in FIG. 15).
When the two blocks are combined into one group, a standard vehicle width (the number of pixels) is obtained according to the distance between the blocks (the length corresponding to the distance between the reflectors at the left and right ends of the rear surface of the vehicle body). In advance, the value is set in step S5
6 may be adopted.

【0070】ステップS57:本ステップでは、上述し
た車両画像の概略推定処理にて算出した部分画像領域に
対して採用するフレーム(テンプレート)のサイズを決
定する。
Step S57: In this step, the size of the frame (template) to be used for the partial image area calculated in the above-described rough estimation process of the vehicle image is determined.

【0071】即ち、ECU11には、決定すべきフレー
ムに関するサイズ情報として、排気管領域の画像位置を
基準とする上下左右の所定の割合情報(図11に示す横
方向の1/2、縦方向の2/7、5/7)が予め記憶さ
れており、この割合情報は、検出対象の車両(車種)の
断面形状における排気管位置の標準的な値に基づいて設
定されている。そこで、ステップS57では、ステップ
S56にて推定した車幅Wに基づいて当該割合情報を参
照することにより、ステップS54にて設定した排気管
部分の画像位置を基準として、上下左右に所定割合のサ
イズを有するフレーム(図11では、正方形で示すテン
プレート27)を設定する。
That is, the ECU 11 provides, as size information relating to the frame to be determined, predetermined ratio information of up, down, left, and right with respect to the image position of the exhaust pipe region (1/2 in the horizontal direction and the vertical direction shown in FIG. 11). 2/7, 5/7) are stored in advance, and this ratio information is set based on a standard value of the exhaust pipe position in the cross-sectional shape of the detection target vehicle (vehicle type). Therefore, in step S57, by referring to the ratio information based on the vehicle width W estimated in step S56, the size of the predetermined ratio in the vertical and horizontal directions with respect to the image position of the exhaust pipe portion set in step S54. (A template 27 indicated by a square in FIG. 11) having

【0072】従って、本実施形態によれば、フレームサ
イズの決定に際して、前段の処理で検出されるであろう
赤外画像に含まれる車両画像の位置(即ち車両との距
離)に応じて多数のフレーム情報を、検出対象の車種毎
に予め記憶する必要は無く、フレームサイズの演算は車
幅Wと割合情報とに基づく車種毎に1回の処理で済むた
め、後述するパターンマッチング処理にて使用すべき最
適なフレームサイズを迅速に決定することができると共
に、ECU11に必要なメモリ領域を節約できる。
Therefore, according to the present embodiment, when determining the frame size, a large number of positions are determined in accordance with the position of the vehicle image included in the infrared image (that is, the distance to the vehicle) which will be detected in the preceding process. The frame information does not need to be stored in advance for each vehicle type to be detected, and the calculation of the frame size only needs to be performed once for each vehicle type based on the vehicle width W and the ratio information. The optimum frame size to be determined can be quickly determined, and the memory area required for the ECU 11 can be saved.

【0073】ステップS58:上述した車両画像の概略
推定処理にて算出した部分画像領域に対して、ステップ
S57にて設定したフレームを用いてパターンマッチン
グを施すことにより、注目している部分画像領域が車両
を表わす画像であるかを判定する。より具体的には、注
目している部分画像領域のエッジ画像と、ステップS5
7にて設定したフレームとの論理積(AND)を採り、
その演算結果、当該両画像の重複部分が所定値より大き
いときには、検出対象である車両と判断すれば良い。
Step S58: By performing pattern matching using the frame set in step S57 on the partial image region calculated in the above-described vehicle image rough estimation processing, the partial image region of interest is It is determined whether the image is an image representing a vehicle. More specifically, the edge image of the focused partial image area is stored in step S5.
Take the logical product (AND) with the frame set in step 7,
As a result of the calculation, when the overlapping portion between the two images is larger than a predetermined value, it may be determined that the vehicle is a detection target vehicle.

【0074】また、ECU11にて複数車種を検出対象
とする場合は、上記の割合情報を車種毎に予め記憶して
おき、ステップS57にて検出対象の車種毎に1つ最適
なフレームサイズを決定し、ステップS58では、注目
している部分画像領域に対して当該車種毎のフレームを
用いてパターンマッチングを順次行い、最も重複部分が
多かったフレームを選択することにより、選択されたフ
レームに対応する車種の車両が、自車両の前方に存在す
ると判定することもできる。
When a plurality of vehicle types are to be detected by the ECU 11, the above ratio information is stored in advance for each vehicle type, and in step S57, one optimal frame size is determined for each vehicle type to be detected. Then, in step S58, pattern matching is sequentially performed on the partial image region of interest using the frame for each vehicle type, and the frame having the largest number of overlapping portions is selected to correspond to the selected frame. It can also be determined that a vehicle of the vehicle type exists in front of the own vehicle.

【0075】ステップS59,ステップS60:ステッ
プS59におけるパターンマッチングの結果に対する重
み付け処理を行い(ステップS59)、その結果に基づ
いて、現在(今回の制御周期において)注目している部
分画像領域が検出対象の車両であるか否かを認定する
(ステップS60)。以下にステップS59及びステッ
プS60の詳細を説明する。
Steps S59 and S60: A weighting process is performed on the result of the pattern matching in step S59 (step S59), and based on the result, a partial image area of interest (in the current control cycle) is detected. It is determined whether or not this is the vehicle (step S60). Hereinafter, the details of step S59 and step S60 will be described.

【0076】ステップS59において、IS2による車
両検出結果の時刻tにおける点数(重み付け値)WIS (t)
は、以下の(1)式: WIS (t) = WIS (t-1) + KAR*WAR (t) + KEP*WEP (t) + KCER*WCER (t) + KTA*WTA (t, t-1) + KTEP*WTEP (t, t-1) - KIS*e-1 ・・・・・(1), によって求めることができる。
In step S59, the vehicle using IS2
Point (weight value) W at time t of both detection resultsIS (t)
Is the following equation (1): WIS (t) = WIS (t-1) + KAR* WAR (t) + KEP* WEP (t) + KCER* WCER (t) + KTA* WTA (t, t-1) + KTEP* WTEP (t, t-1) -KIS* e-1 ・ ・ ・ ・ ・ (1)

【0077】但し、上記の式において、 ・時刻t−1において算出した点数: WIS (t-1), ・時刻tにおけるアスペクト比に関する点数: KAR*W
AR (t), ・時刻tにおける排気管の位置に関する点数: KEP*W
EP (t), ・排気管領域の画像面積/車両領域の画像面積の比に関
する点数: KCER*WCER ( t), ・車両領域の画像面積の時間変化に関する点数: KTA*
WTA (t, t-1), ・排気管の位置の時間変化に関する点数: KTEP*WTEP
(t, t-1), ・正規分布にするための係数: KIS*e-1, である。
However, in the above equation, the score calculated at time t-1: W IS (t-1) , the score related to the aspect ratio at time t: K AR * W
AR (t) , ・ Point related to position of exhaust pipe at time t: K EP * W
EP (t) , ・Point related to ratio of image area of exhaust pipe area / image area of vehicle area: K CER * W CER ( t) , ・Point related to time change of image area of vehicle area: K TA *
W TA (t, t-1) , ・Point related to time change of exhaust pipe position: K TEP * W TEP
(t, t-1) , Coefficient for normal distribution: K IS * e -1 ,

【0078】尚、本実施形態においてアスペクト比と
は、算出結果に対する信頼性を表わす値であり、信頼性
が高いほど1に近く、信頼性が低いほど0に近い値を採
る。
In the present embodiment, the aspect ratio is a value representing the reliability of the calculation result. The aspect ratio is closer to 1 as the reliability is higher, and is closer to 0 as the reliability is lower.

【0079】ここで、定数項WAR (t)は、図13(a)に
示すところの、時刻tにおける演算結果のアスペクト比
に関する定数であり、赤外画像の全体領域における部分
画像領域の位置に応じて設定される。この定数は、赤外
線カメラによって撮像された赤外画像に基づいて距離を
算出する場合、赤外画像の端に位置する画素(画角の端
の画素)ほど画像の信頼性が劣化するという一般的な特
性が有るので、その特性を反映するための値である。
Here, the constant term W AR (t) is a constant related to the aspect ratio of the calculation result at time t, as shown in FIG. 13A, and is the position of the partial image area in the entire infrared image area. It is set according to. When calculating the distance based on an infrared image captured by an infrared camera, this constant generally indicates that the reliability of the image deteriorates as the pixel is located closer to the edge of the infrared image (the pixel at the edge of the angle of view). This is a value for reflecting such characteristics.

【0080】定数項WEP (t)は、図13(b)に示すとこ
ろの、時刻tにおける排気管の位置に関する定数であ
り、赤外画像の全体領域における排気管の画像位置に応
じて設定される。
The constant term W EP (t) is a constant relating to the position of the exhaust pipe at time t shown in FIG. 13B, and is set according to the image position of the exhaust pipe in the entire infrared image area. Is done.

【0081】定数項WCER (t)は、図13(c)に示すと
ころの、排気管領域の画像面積/車両領域の画像面積の
比に関するであり、注目している部分画像領域の面積に
対する排気管位置の画像部分の面積が所定値(本実施形
態では1/10)から大きく異なるほど小さな値が選択
される。
The constant term W CER (t) relates to the ratio of the image area of the exhaust pipe area / the image area of the vehicle area as shown in FIG. A smaller value is selected as the area of the image portion at the position of the exhaust pipe greatly differs from a predetermined value (1/10 in this embodiment).

【0082】定数項WTA (t, t-1)は、図14(d)に示
すところの、車両領域の画像面積の時間変化に関する定
数であり、赤外線カメラの1回の制御周期(本実施形態
ではt=100msec)の僅かな時間間隔にも関ら
ず、注目している部分画像領域の面積が大きく異なるほ
ど小さな値が選択される。
The constant term W TA (t, t-1) is a constant relating to the time change of the image area of the vehicle area as shown in FIG. 14D, and is one control cycle of the infrared camera (this embodiment). In spite of a small time interval of t = 100 msec in the embodiment, a smaller value is selected as the area of the partial image area of interest largely differs.

【0083】定数項WTEP (t, t-1)は、図14(e)に示
すところの、排気管の位置の時間変化に関する定数であ
り、赤外線カメラの1回の制御周期(本実施形態ではt
=100msec)の僅かな時間間隔にも関らず、注目
している部分画像領域の内部における排気管領域の画像
位置が大きく異なるほど小さな値が選択される。
The constant term W TEP (t, t-1) is a constant relating to the time change of the position of the exhaust pipe as shown in FIG. 14 (e), and is one control cycle of the infrared camera (this embodiment). Then t
Despite the slight time interval of (= 100 msec), a smaller value is selected as the image position of the exhaust pipe region in the partial image region of interest largely differs.

【0084】尚、上述した図13及び図14に示した特
性は、ECU11に予めルックアップテーブルとして記
憶されている。
The characteristics shown in FIGS. 13 and 14 are stored in the ECU 11 in advance as a look-up table.

【0085】また、係数KISは、 係数KIS = KAR + KEP + KCER + KTA + KTEP, なる関係がある。The coefficient K IS has the following relation: coefficient K IS = K AR + K EP + K CER + K TA + K TEP .

【0086】そして、ステップS60における認定処理
では、上記のステップS59の処理にて算出された点数
(重み付け値)WIS (t)の値が1以上のときには、今回の
制御周期において注目している部分画像領域の画像が検
出対象の車両を表わすと認定する。また、本ステップに
おいて車両であると認定した場合には、後述するセンサ
ーフュージョンの処理の都合から、点数WIS (t)の値を1
に設定する。
In the certification processing in step S60, when the value of the score (weighted value) W IS (t) calculated in the processing in step S59 is 1 or more, attention is paid in the current control cycle. It is determined that the image of the partial image area represents the detection target vehicle. If it is determined in this step that the vehicle is a vehicle, the value of the score W IS (t) is set to 1 for the convenience of the sensor fusion processing described later.
Set to.

【0087】以上説明したIS2による車両の認定処理
によれば、車両画像の概略推定処理(図9)によって検
出された車両(車両である可能性の高いエッジ画像)毎
に車両検出処理(図10)が行われることにより、それ
ら車両の位置(相対距離)及び速度(図10のステップ
S55)と、その演算結果の信頼性に関する値(図10
のステップS60)とを、高精度に算出することができ
る。
According to the vehicle qualification process based on IS2 described above, the vehicle detection process (FIG. 10) is performed for each vehicle (edge image that is likely to be a vehicle) detected by the vehicle image rough estimation process (FIG. 9). ), The position (relative distance) and speed of those vehicles (step S55 in FIG. 10) and the value (FIG. 10) relating to the reliability of the calculation result.
Step S60) can be calculated with high accuracy.

【0088】<LR1による車両の認定処理>次に、L
R1による車両の認定処理について、図15乃至図18
を参照して説明する。
<Vehicle Certification Processing by LR1>
Regarding the vehicle certification process by R1, FIGS.
This will be described with reference to FIG.

【0089】はじめに、本実施形態におけるLR1によ
る車両の認定処理を概説する。LR1による車両の認定
処理では、検出した反射波のうち、所定のしきい値より
大きな強度の反射波から移動方向及び速度が近似するも
のを1ブロックにまとめるブロック化処理と、ブロック
化によってまとめられた複数のブロックのうち、近傍に
位置する2つのブロックを、検出対象である車両として
1つのグループにまとめるグループ化処理と、検出され
たグループ単位で、存在及び移動状態を判定する認定処
理とにより構成される。
First, an outline of the vehicle recognition process by the LR1 in the present embodiment will be described. In the process of certifying the vehicle by LR1, the detected reflected waves are grouped into a block and a block, in which the reflected waves having a strength greater than a predetermined threshold and whose moving direction and speed are similar are grouped into one block. Of the plurality of blocks, a grouping process of grouping two blocks located in the vicinity as a detection target vehicle into one group, and a certification process of determining the presence and the moving state in units of the detected groups. Be composed.

【0090】尚、本実施形態の前提として、検出対象で
ある車両の後部バンパーの両端部付近には、それぞれ反
射板(リフレクタ)が取り付けられており、LR1によ
る車両の検出は、反射板からの検出波の反射波に基づい
て行われる。以下、LR1による車両の認定処理につい
て、図15乃至図19を参照して説明する。
As a premise of the present embodiment, reflectors (reflectors) are attached near both ends of the rear bumper of the vehicle to be detected, and the vehicle is detected by the LR1 from the reflector. This is performed based on the reflected wave of the detection wave. Hereinafter, the vehicle recognition processing by the LR1 will be described with reference to FIGS.

【0091】図15は、本実施形態におけるECU11
が実行するLR1による車両の認定処理を示すフローチ
ャートであり、図6のステップS12の詳細な処理手順
を示す。
FIG. 15 shows the ECU 11 in this embodiment.
7 is a flowchart showing a process of certifying a vehicle by LR1 executed by the LR1, and shows a detailed processing procedure of step S12 in FIG.

【0092】図15において、ステップS71:LR1
によって図3に示す検出波の伝搬範囲を走査し、その結
果、車両100の前方に存在する障害物から戻ってくる
反射波に基づいて、当該障害物までの距離及び存在方向
(位置)の情報を入手する。本ステップにて入手する情
報は、図16(a)に「レーザレーダの出力データ」に
示すように、図3に示す検出波の伝搬範囲において複数
の点状に離散した状態の検出結果である。
In FIG. 15, step S71: LR1
3 is scanned, and as a result, based on the reflected wave returning from the obstacle existing in front of the vehicle 100, information on the distance to the obstacle and the existing direction (position) are obtained. Get. The information obtained in this step is a detection result of a state where a plurality of points are discrete in the propagation range of the detection wave shown in FIG. 3 as shown in “output data of laser radar” in FIG. .

【0093】ステップS72:ステップS71にて検出
された障害物までの距離(位置)と、前回までの制御周
期において後述するステップS74にて既にブロック化
されている障害物までの距離(位置)とを参照すること
により、今回の制御周期においてステップS71にて検
出された障害物が既にブロック化されているかを判断す
る。
Step S72: The distance (position) to the obstacle detected in step S71 and the distance (position) to the obstacle already blocked in step S74 described later in the previous control cycle. It is determined whether the obstacle detected in step S71 in the current control cycle has already been blocked.

【0094】ステップS73:ステップS72の判断に
てブロック化済みであるので、対象となる障害物からの
反射波の強度が所定値より大きな検出値であるものを選
択し、1つのブロックとしてまとめる。
Step S73: Since the block has been made in the judgment of step S72, a block whose intensity of the reflected wave from the target obstacle is larger than a predetermined value is selected and collected as one block.

【0095】ステップS74:ステップS72の判断に
て未だブロック化されていないので、ステップS71に
て検出された障害物に対して、所定のしきい値より大き
な強度の反射波から移動方向及び速度が近似するものを
1ブロックにまとめるブロック化処理(ブロックラベリ
ング)を行う。これにより、図16(a)の「レーザレ
ーダの出力データ」は、図16(b)の「ブロックラベ
リング」に示すように、複数のブロックにまとめられ
る。このとき、レーザレーダの出力データを1ブロック
としてまとめる基準は、標準的なリフレクタの大きさに
基づいて設定する。
Step S74: Since the block is not yet formed by the judgment in step S72, the moving direction and the speed of the obstacle detected in step S71 are changed from the reflected wave having the intensity larger than the predetermined threshold value. Blocking (block labeling) is performed to combine approximations into one block. Thus, the “laser radar output data” in FIG. 16A is grouped into a plurality of blocks as shown in “block labeling” in FIG. 16B. At this time, the standard for combining the output data of the laser radar as one block is set based on the size of a standard reflector.

【0096】ステップS75:ステップS74にて入手
した複数のブロック、またはステップS73にて入手し
たブロックのうち、相対速度が略等しく、且つ近傍に位
置する2つのブロックを、検出対象である車両として1
つのグループにまとめるグループ化処理(グループラベ
リング)を行う。これにより、図16(b)の「ブロッ
クラベリング」に示す各ブロックは、図16(C)の
「グループラベリング」に示すように、複数のグループ
にまとめられる。そして、本ステップによれば、例え
ば、1つのグループを構成するために参照した2つのブ
ロックをなすLR1の検出結果の平均値を求めることに
より、グループ(車両)毎に、自車両との相対的な位置
関係(距離)が求まる。
Step S75: Of the plurality of blocks obtained in step S74 or the blocks obtained in step S73, two blocks having substantially equal relative speeds and located close to each other are regarded as one vehicle to be detected.
Perform grouping processing (group labeling) to combine into two groups. As a result, the blocks shown in “block labeling” in FIG. 16B are grouped into a plurality of groups as shown in “group labeling” in FIG. 16C. According to this step, for example, by calculating the average value of the detection results of the LR1 forming the two blocks referred to to form one group, the relative value to the own vehicle is determined for each group (vehicle). A great positional relationship (distance) is obtained.

【0097】尚、IS2による単独の第1検出範囲にお
いて検出されていた車両が、LR1及びIS2による重
複した第2検出範囲に移動したときに、その車両が前回
までの制御周期においてIS2によって既に検出されて
いる車両(グループ)であるときには、その車両に対す
る上記ステップS75に記載したブロック化処理を簡略
化することができる。即ち、前述したIS2による車両
位置(距離)及びIS2による車幅データに基づいて、
LR1の検出範囲に存在する同一車両のリフレクタから
の反射波データの存在すべき領域を推定し、推定した領
域内に存在する2つのブロックについては、1つのグル
ープとしてまとめれば良い。但し、この処理は、IS2
による車幅データの信頼性が低いとき(例えば、夕方等
のように路面温度が比較的高いとき)には行わないもの
とする。この場合、第2検出範囲から第1検出範囲に移
動した車両に対するIS2による検出結果は、所定時間
にわたって記憶しておけば良い。これにより、自車両先
方における割り込み車両を迅速に認識することができ
る。
When the vehicle detected in the single first detection range by IS2 moves to the second detection range overlapped by LR1 and IS2, the vehicle is already detected by IS2 in the previous control cycle. If the vehicle (group) is used, the blocking process described in step S75 for the vehicle can be simplified. That is, based on the vehicle position (distance) based on IS2 and the vehicle width data based on IS2,
It is sufficient to estimate an area where the reflected wave data from the reflector of the same vehicle existing in the detection range of LR1 should exist, and to combine two blocks existing in the estimated area into one group. However, this processing is based on IS2
Is not performed when the reliability of the vehicle width data is low (for example, when the road surface temperature is relatively high such as in the evening). In this case, the detection result by IS2 for the vehicle that has moved from the second detection range to the first detection range may be stored for a predetermined time. As a result, it is possible to quickly recognize the interrupted vehicle ahead of the own vehicle.

【0098】ステップS76:検出されたグループ単位
で、ステップS75におけるグループ化によって検出さ
れた車両(グループ)の移動状態を検出するトラッキン
グ処理を行う。即ち、時刻tにおける先行車両の位置情
報と、その車両の時刻tー1における位置情報とによ
り、当該車両の車両100に対する速度(相対速度)ベ
クトルVは算出可能であり(図17参照)、算出した速
度ベクトルVのX方向成分を算出することにより、当該
車両の横移動速度が求まる。
Step S76: For each detected group, a tracking process for detecting the moving state of the vehicle (group) detected by the grouping in step S75 is performed. That is, the speed (relative speed) vector V of the vehicle with respect to the vehicle 100 can be calculated from the position information of the preceding vehicle at time t and the position information of the vehicle at time t-1 (see FIG. 17). By calculating the X-direction component of the obtained speed vector V, the lateral movement speed of the vehicle is obtained.

【0099】即ち、自車両前方に存在する他車両の横方
向速度は、 ・平滑化距離Xsk = 予測距離Xpk + α(検出距離Xk - 予測距離Xpk) ・・・ (2), ・横移動速度Vsk = 前回の横移動速度Vsk-1 + β/サンプリング周期T(検出 距離Xk - 予測距離Xpk) ・・・(3), ・予測距離Xpk+1 = 平滑化距離Xsk + サンプリング周期T×横移動速度Vsk ・・・(4), なる数式によって表現することができる。
That is, the lateral speed of another vehicle existing ahead of the own vehicle is as follows: Smoothing distance Xsk = Predicted distance Xpk + α (Detected distance Xk−Predicted distance Xpk) (2) Vsk = previous lateral movement speed Vsk−1 + β / sampling period T (detection distance Xk−predicted distance Xpk) (3), • predicted distance Xpk + 1 = smoothed distance Xsk + sampling period T × lateral movement Speed Vsk (4) can be represented by the following mathematical formula.

【0100】ここで、他車両の速度に関する上記の式
(2)乃至(4)において、αは移動量に関し、検出値
と予測値をどれくらいの割合で合成するかを表わすパラ
メータである。βは次の予測距離を決定するのに、どれ
くらいの割合で合成するかを表わすパラメータである。
また、縦方向速度は、上記の各式においてxをyに置き
換える式によって同様に算出できる。
Here, in the above equations (2) to (4) relating to the speed of the other vehicle, α is a parameter indicating the ratio of the detected value and the predicted value to be combined with respect to the movement amount. β is a parameter indicating the ratio at which the images are combined to determine the next predicted distance.
In addition, the vertical speed can be calculated in the same manner by using an expression that replaces x with y in each of the above expressions.

【0101】従って、LR1からの出力信号がECU1
1に時系列に入力される限り、このようなトラッキング
処理をグループ化によって検出された車両(グループ)
毎に行うことにより、それら車両の次回の制御周期にお
ける挙動(位置及び速度)を正確に予測することができ
る。この次回の制御周期における挙動予測の結果は、後
述するセンサフュージョンの処理において特定しいてい
た車両が第2検出範囲から第1検出範囲に移動してしま
い、実測値を利用したLR1による検出結果が求められ
ない場合においても、センサフュージョンを継続する際
に使用される(詳細は後述する)。
Therefore, the output signal from LR1 is
Vehicles (groups) detected by grouping such tracking processes as long as they are input in time series to 1.
By performing each time, the behavior (position and speed) of those vehicles in the next control cycle can be accurately predicted. The result of the behavior prediction in the next control cycle is based on the fact that the vehicle specified in the sensor fusion processing described later moves from the second detection range to the first detection range, and the detection result by LR1 using the actually measured value is obtained. Even when it is not required, it is used when continuing sensor fusion (details will be described later).

【0102】ステップS77,ステップS78:検出さ
れたグループ単位で、ステップS76におけるトラッキ
ング処理の結果に対する重み付け処理を行い(ステップ
S77)、その結果に基づいて、現在(今回の制御周期
において)注目している各車両(1つの注目グループ)
が検出対象の車両であるか否かを認定する(ステップS
78)。以下にステップS77及びステップS78の詳
細を説明する。
Steps S77 and S78: A weighting process is performed on the result of the tracking process in step S76 for each detected group (step S77), and based on the result, attention is paid to the present (in the current control cycle). Each vehicle (one attention group)
Is recognized as a vehicle to be detected (step S
78). Hereinafter, the details of step S77 and step S78 will be described.

【0103】ステップS77において、LR1による車
両検出結果の時刻tにおける点数(重み付け値)WLR (t)
は、以下の式(5): WLR (t) = WLR (t-1) + KBL*WBL (t) + KDB*WDB (t) + KTDR*WTDR (t, t-1) + KE PR *WEPR (t) - KBL - (KDB + KTDR + KEPR)*e-1 ・・・・・(5), によって求めることができる。
In step S77, the point (weight value) W LR (t) at time t of the vehicle detection result by LR1 is obtained.
Is given by the following equation (5): W LR (t) = W LR (t-1) + K BL * W BL (t) + K DB * W DB (t) + K TDR * W TDR (t, t -1) + K E PR * W EPR (t) - K BL - (K DB + K TDR + K EPR) * e -1 ····· (5), it can be determined by.

【0104】但し、上記の式において、 ・時刻t−1において算出した点数: WLR (t-1), ・注目グループについて検出したブロック数に関する点
数: KBL*WBL (t), ・注目グループをなす2つのブロック間の距離に関する
点数: KDB*WDB (t), ・注目グループをなす2つのブロック間の距離変化に関
する点数: KTDR*WTDR ( t, t-1), ・注目グループの予測位置と検出位置との差に関する点
数: KEPR*WEPR (t), ・正規分布にするための係数: KBL - (KDB + KTDR +
KEPR)*e-1 である。
However, in the above formula, the score calculated at time t-1: W LR (t-1) , the score related to the number of blocks detected for the group of interest: K BL * W BL (t) , Points related to the distance between the two blocks forming the group: K DB * W DB (t) , ・ Points related to the change in distance between the two blocks forming the group of interest: K TDR * W TDR ( t, t-1) , Points related to the difference between the predicted position and the detected position of the target group: K EPR * W EPR (t) , ・ Coefficient for normal distribution: K BL- (K DB + K TDR +
K EPR ) * e -1 .

【0105】ここで、定数項WBL (t)は、図18(a)に
示すところの、注目グループについて検出したブロック
数に関する定数であり、本実施形態では1台の車両に2
つのリフレクタが取り付けられていることを前提として
いるので、検出されたブロック(リフレクタ)数が2の
ときに当該定数として1が選択される。
Here, the constant term W BL (t) is a constant related to the number of blocks detected for the group of interest as shown in FIG.
Since it is assumed that two reflectors are attached, when the number of detected blocks (reflectors) is 2, 1 is selected as the constant.

【0106】定数項WDB (t)は、図18(b)に示すとこ
ろの、注目グループをなす2つのブロック間の距離に関
する定数であり、ブロック(リフレクタ)間の距離が検
出対象の車両における2つのリフレクタ間の標準的な距
離(本実施形態では1.2m)に近いほど当該定数は1
に近い値が選択される。
The constant term W DB (t) is a constant related to the distance between the two blocks forming the group of interest, as shown in FIG. 18B, and the distance between the blocks (reflectors) in the vehicle to be detected. The closer the distance to the standard distance between the two reflectors (1.2 m in this embodiment), the more the constant becomes 1.
Is selected.

【0107】定数項WTDR (t, t-1)は、図19(c)に示
すところの、注目グループをなす2つのブロック間の距
離変化に関する定数であり、LR1の1回の制御周期の
僅かな時間間隔にも関らず、ブロック(リフレクタ)間
の距離が大きく異なるほど小さな値が選択される。
The constant term W TDR (t, t-1) is a constant related to a change in the distance between two blocks forming the group of interest, as shown in FIG. In spite of a small time interval, a smaller value is selected as the distance between the blocks (reflectors) greatly differs.

【0108】定数項WEPR (t)は、図19(d)に示すと
ころの、注目グループの予測位置と検出位置との差に関
する定数であり、上記の式(2)乃至(4)を用いてス
テップS76にて算出した予測位置と、ステップS75
のグループ化の時点で入手した実際の検出位置との差が
大きいほど、小さな値が選択される。
The constant term W EPR (t) is a constant relating to the difference between the predicted position and the detected position of the target group, as shown in FIG. 19D, and is obtained by using the above equations (2) to (4). The predicted position calculated in step S76 and
As the difference from the actual detection position obtained at the time of grouping is larger, a smaller value is selected.

【0109】尚、上述した図18及び図19に示した特
性は、ECU11に予めルックアップテーブルとして記
憶されている。
The characteristics shown in FIGS. 18 and 19 are stored in the ECU 11 in advance as a look-up table.

【0110】そして、ステップS78における認定処理
では、上記のステップS77の処理にて算出された点数
(重み付け値)WLR (t)の値が1以上のときには、注目グ
ループが検出対象の車両を表わすと認定する。また、本
ステップにおいて車両であると認定した場合には、後述
するセンサーフュージョンの処理の都合から、点数WL R
(t)の値を1に設定する。
In the certification processing in step S78, when the value of the score (weighting value) W LR (t) calculated in the processing in step S77 is 1 or more, the target group represents the vehicle to be detected. Certified. If it is determined that the vehicle is a vehicle in this step, the score W L R
Set the value of (t) to 1.

【0111】以上説明したLR1による車両の認定処理
によれば、車両検出処理(図15)が行われることによ
り、車両を表わすグループ毎に、位置(相対距離)及び
速度(図15のステップS75及びステップS76)
と、その演算結果の信頼性に関する値(図15のステッ
プS78)とを算出することができる。
According to the vehicle recognition processing by LR1 described above, the vehicle detection processing (FIG. 15) is performed, so that the position (relative distance) and speed (steps S75 and FIG. Step S76)
And a value relating to the reliability of the calculation result (step S78 in FIG. 15).

【0112】<センサフュージョンによる車両の認識処
理>上述した各工程により、LR1及びIS2を用いた
車両の認定処理による検出結果とその信頼性に関する値
が求まったので、それらの値に基づくセンサフュージョ
ンによる車両の認識処理について、図20及び図21を
参照して説明する。
<Vehicle Recognition Processing by Sensor Fusion> In each of the above-described steps, the detection result of the vehicle recognition processing using LR1 and IS2 and the value related to its reliability have been obtained, and the sensor fusion based on those values has been performed. The vehicle recognition process will be described with reference to FIGS.

【0113】はじめに、本実施形態に係るセンサフュー
ジョンによる車両の認識処理を概説する。この認識処理
では、上述したLR1及びIS2による車両の認定処理
によって車両であると認定されたそれぞれの物体の位置
及び速度の相関関係を表わす値を算出すると共に、その
相関関係を表わす値と、LR1及びIS2による車両の
認定処理によってそれぞれ検出された位置及び速度の信
頼性に関する値との和が所定のしきい値より大きいとき
に、それら物体を、監視対象である1つの車両として正
式に認識する処理を行う。
First, a vehicle recognition process by the sensor fusion according to the present embodiment will be outlined. In this recognition process, a value representing the correlation between the position and the speed of each object that has been recognized as a vehicle by the above-described vehicle recognition process using LR1 and IS2 is calculated, and a value representing the correlation and LR1 When the sum of the values of the position and speed detected by the vehicle certification process by IS and IS2 is larger than a predetermined threshold, those objects are formally recognized as one vehicle to be monitored. Perform processing.

【0114】(LR1及びIS2の検出結果によるセン
サフュージョン)以下、センサフュージョンによる車両
の認識処理について、図20及び図21を参照して説明
する。本実施形態において、センサフュージョンによる
LR1及びIS2を用いた車両の認定処理結果の評価
は、赤外画像の座標系において行う。
(Sensor Fusion Based on LR1 and IS2 Detection Results) Hereinafter, a vehicle recognition process by sensor fusion will be described with reference to FIGS. 20 and 21. In the present embodiment, the evaluation of the result of the vehicle qualification process using LR1 and IS2 by sensor fusion is performed in the coordinate system of the infrared image.

【0115】但し、IS2による距離推定は、光学系及
び撮像デバイスを利用した方法であるため、赤外画像の
中央部分と比較して左右の端部の信頼性に劣り、且つ自
車両から遠方方向(Z方向)の信頼性もある程度の距離
を越えると徐々に低くなることが一般的に知られてい
る。また、検出対象の物体の一部が画角から外れてしま
った場合には正確な検出を行うことができない。そこ
で、図20に示すように、IS2に関して、X方向(横
方向)の信頼性の定義(図20(a))と、Z方向(縦
方向)の信頼性の定義(図20(b))とをECU11
に予め記憶しておくことにより、IS2による距離推定
の信頼性を定義する。
However, since the distance estimation based on IS2 is a method using an optical system and an image pickup device, the reliability of the left and right ends is inferior to the central part of the infrared image, and the distance from the own vehicle in a direction farther away. It is generally known that the reliability in the (Z direction) gradually decreases after a certain distance. Further, when a part of the object to be detected deviates from the angle of view, accurate detection cannot be performed. Therefore, as shown in FIG. 20, with respect to IS2, the definition of reliability in the X direction (horizontal direction) (FIG. 20 (a)) and the definition of reliability in the Z direction (vertical direction) (FIG. 20 (b)) And ECU11
, The reliability of the distance estimation by IS2 is defined.

【0116】一方、LR1による距離推定は、IS2を
用いた場合と比較して検出範囲が長く、検出結果の信頼
性も高いが、左右方向に対する検出範囲が狭い。そこ
で、図21に示すように、LR1に関して、X方向(横
方向)の信頼性の定義(図21(a))と、Z方向(縦
方向)の信頼性の定義(図21(b))とをECU11
に予め記憶しておくことにより、LR1による距離推定
の信頼性を定義する。
On the other hand, the distance estimation by LR1 has a longer detection range and higher reliability of the detection result as compared with the case of using IS2, but has a narrower detection range in the left-right direction. Therefore, as shown in FIG. 21, regarding LR1, the definition of reliability in the X direction (horizontal direction) (FIG. 21A) and the definition of reliability in the Z direction (vertical direction) (FIG. 21B) And ECU11
, The reliability of distance estimation by LR1 is defined.

【0117】次に、センサフュージョンのアルゴリズム
について説明する。
Next, the sensor fusion algorithm will be described.

【0118】図3を参照して示したように、IS2の検
出範囲は、LR1の検出範囲を内包するように設定され
ているので、当該2種類の検出方式には、検出領域が重
複していない第1検出範囲と、重複している第2検出範
囲とがある。これに対して、センサフュージョンの基本
概念としては、同じ検出対象に対して複数の検出結果が
存在することが前提となるため、本実施形態において
も、基本的には、LR1及びIS2による実測値に基づ
く2種類の検出結果が存在する場合にセンサフュージョ
ンを行う。
As shown with reference to FIG. 3, since the detection range of IS2 is set to include the detection range of LR1, the detection areas of the two types of detection methods overlap. There is an undetected first detection range and an overlapping second detection range. On the other hand, the basic concept of sensor fusion is based on the premise that there are a plurality of detection results for the same detection target. Therefore, in the present embodiment, basically, the actual measurement values by LR1 and IS2 are used. Sensor fusion is performed when there are two types of detection results based on.

【0119】(LR1及びIS2による検出結果のセン
サフュージョン)LR1及びIS2によるそれぞれの検
出結果が存在する場合に、センサフュージョンでは、当
該2種類のセンサによって検出された物体が本当に車両
であるのか、或いは何等かのノイズによるものなのかを
判断しなければならない。
(Sensor fusion of detection results by LR1 and IS2) When the detection results by LR1 and IS2 exist, in sensor fusion, whether the object detected by the two types of sensors is really a vehicle, or You must determine if it is due to some noise.

【0120】ここで、第2検出範囲に車両が存在する場
合には、 ・LR1及びIS2によって検出される信頼性の点数
(WIS,WLR)が高い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が高い、 ・そして、LR1及びIS2の両センサに時間的に比較
的長く反応する、 という特徴がある。
Here, when a vehicle is present in the second detection range, the reliability score (W IS , W LR ) detected by LR1 and IS2 is high. The vehicle detected by LR1 and IS2 There is a feature that the degree of correlation between the position and the speed is high, and that the sensor responds to both the LR1 and IS2 sensors for a relatively long time.

【0121】また、第2検出範囲にノイズが存在する場
合には、 ・LR1及びIS2によって検出される信頼性(WIS
LR)が低い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が低い、 ・そして、LR1及びIS2の両センサに反応する時間
が比較的短い、 という特徴がある。
When noise is present in the second detection range, the reliability detected by LR1 and IS2 (W IS ,
W LR ) is low, the degree of correlation between the position and the speed of the vehicle detected by LR1 and IS2 is low, and the time for responding to both the LR1 and IS2 sensors is relatively short.

【0122】そこで、本実施形態では、上記の第2検出
範囲における特徴を踏まえたセンサフュージョンの式
を、下記の式(6)のように定式化することにより、セ
ンサフュージョンの点数SFを求める。
Therefore, in the present embodiment, the sensor fusion score S F is obtained by formulating the sensor fusion formula based on the characteristics in the second detection range as the following formula (6). .

【0123】[0123]

【数1】 (Equation 1)

【0124】また、係数θIS()及びθLR()について
は、式(13)及び式(14)を参照して後述する。
The coefficients θ IS () and θ LR () will be described later with reference to equations (13) and (14).

【0125】そして、上記の式(6)によって算出した
センサフュージョンの点数SFが1以上であるときに
は、「車両である」と認定する。また、このとき、時系
列なデータに基づいて算出した位置と速度との相関度、
或いはLR1及びIS2による検出結果の信頼性の点数
ISまたはWLRの何れか一方が1点満点に近い点数であ
れば、他方の値が比較的低い点数であっても、「車両で
ある」と認定する。
[0125] Then, when the number S F sensor fusion calculated by the above equation (6) is 1 or more is recognized as "a vehicle". At this time, the degree of correlation between the position and the speed calculated based on the time-series data,
Alternatively, if either the score W IS or W LR of the reliability of the detection result by LR1 or IS2 is a score close to a perfect score, even if the other value is a relatively low score, it is “vehicle”. Certified.

【0126】ここで、式(6)の第1項の位置と速度と
の相関度を表す関係式において、f() は位置の相関
度、 g()は速度の相関度を表しており、0≦f()
≦1、0≦g()≦1の範囲の値を採る。これらの関数
の具体的な式を、下記の式(7)及び式(8)に示す。
Here, in the relational expression representing the degree of correlation between the position and the velocity in the first term of the equation (6), f () represents the degree of correlation of the position, and g () represents the degree of correlation of the velocity. 0 ≦ f ()
≦ 1, 0 ≦ g () ≦ 1. Specific equations of these functions are shown in the following equations (7) and (8).

【0127】[0127]

【数2】 (Equation 2)

【0128】ここで、ωX()、ωZ()は、以下に示すX方
向(自車両の横方向)、Z方向(自車両の前方方向)の
相対的な信頼性の関数であり、ωX()+ωZ()=1 を満
たす。また、LX()、LZ()は、X方向、Z方向の限界偏差
であり、共に距離ZIS,ZLRの関数である。更に、
Tは、サンプリング時間である。
Here, ω X () and ω Z () are functions of relative reliability in the X direction (lateral direction of the own vehicle) and the Z direction (forward direction of the own vehicle) described below. ω X () + ω Z () = 1 is satisfied. L X () and L Z () are limit deviations in the X and Z directions, and are both functions of the distances ZIS and ZLR. Furthermore,
T is a sampling time.

【0129】例えば、車両(先行車両)が自車両より遠く
に存在する場合、LR1と比較してIS2の検出精度が
劣化するため、当該両センサによって検出されるZ方向
の位置の偏差は大きくなる。従ってこのような場合は、
ωZ()の値がωX()に比べて低くなるように調整する。ま
た、Z方向において車両(先行車両)が自車両の至近距離
に存在する場合には、ωX()>ωZ()となるように調整す
る。これにより、周囲の環境変化を認識結果の確度(信
頼性)に反映することができる。
For example, when the vehicle (preceding vehicle) is farther from the host vehicle, the detection accuracy of IS2 is lower than that of LR1, and the deviation of the position in the Z direction detected by the two sensors becomes larger. . Therefore, in such a case,
Adjust so that the value of ω Z () is lower than ω X (). Further, when the vehicle (preceding vehicle) exists in the close distance of the own vehicle in the Z direction, the adjustment is performed so that ω X ()> ω Z (). As a result, changes in the surrounding environment can be reflected on the accuracy (reliability) of the recognition result.

【0130】同様な考え方により、車両(先行車両)が自
車両の前方を基準として左右に存在する(X方向の)場
合には、ωX()<ωZ()となるように調整する。また、車
両(先行車両)が自車両の前方(Z軸上)の比較的近距離
な位置に存在する場合は、何れのセンサによる検出結果
の信頼性も同じであるとみなせるので、ωX()=ωZ()と
する。
Based on the same concept, when the vehicle (preceding vehicle) is present on the left and right with respect to the front of the own vehicle (in the X direction), adjustment is made so that ω X () <ω Z (). Also, since when the vehicle (preceding vehicle) is present in a relatively short distance position ahead of the host vehicle (on the Z axis) can be regarded to be the same reliability of the detection results by any of the sensors, omega X ( ) = Ω Z ().

【0131】また、一般にレーザレーダによる検出結果
は、雨天や霧等の天候の影響を受け易い。そこで、本実
施形態において、ECU11は、上記の如くセンサフュ
ージョンを行うに際して、悪天候を検出した場合にはL
R1による検出結果に対する信頼性を晴天時と比較して
低く調整する。このとき、自車両周囲の天候の検出は、
ワイパースイッチ6の操作状態(当該スイッチがオン状
態であれば悪天候と推定する)及び照度センサ8の検出
結果に基づいて判断すれば良い。
In general, the result of detection by a laser radar is easily affected by weather such as rain or fog. Thus, in the present embodiment, when performing the sensor fusion as described above, the ECU 11 detects L when the bad weather is detected.
The reliability of the detection result by R1 is adjusted to be lower than that in fine weather. At this time, detection of the weather around the vehicle
The determination may be made based on the operation state of the wiper switch 6 (if the switch is on, it is assumed that the weather is bad) and the detection result of the illuminance sensor 8.

【0132】また、一般に赤外線カメラによる検出結果
は、路面温度が高くなる夏季や夕方の時間、並びに夕方
の時間帯に大きく傾いた太陽光の方向に自車両が進む場
合には影響を受け易い。特に本実施形態では、前方に存
在する車両の排気管位置の撮影を容易にすべくIS2の
取り付け位置を低くしているので何等かの対策が必要で
ある。そこで、ECU11は、上記の如くセンサフュー
ジョンを行うに際して、例えばGPSセンサ10を介し
て入手した時間情報やナビゲーションユニット(不図
示)から入手した進行方向やカレンダー情報、並びに照
度センサ8の検出結果を参照することにより、係る走行
環境であるか否かを推定し、検出結果が影響を受け易い
走行環境であると判断した場合には、IS2による検出
結果に対する信頼性を、そうでない場合と比較して低く
調整する。これにより、周囲の環境変化を認識結果の確
度(信頼性)に反映することができる。
In general, the result of detection by an infrared camera is easily affected when the host vehicle travels in the direction of sunlight that is greatly inclined in summer or evening when the road surface temperature is high, or in the evening. In particular, in this embodiment, since the mounting position of the IS2 is lowered in order to facilitate the photographing of the exhaust pipe position of the vehicle existing in front, some countermeasures are required. Therefore, when performing sensor fusion as described above, the ECU 11 refers to, for example, time information obtained via the GPS sensor 10, traveling direction and calendar information obtained from a navigation unit (not shown), and detection results of the illuminance sensor 8. By doing so, it is estimated whether or not the driving environment is such, and if it is determined that the detection result is a driving environment that is easily affected, the reliability of the detection result by IS2 is compared with the case where it is not. Adjust lower. As a result, changes in the surrounding environment can be reflected on the accuracy (reliability) of the recognition result.

【0133】信頼性の関数ωX()、ωZ()、LX()、LZ()
を、以下の式(9)乃至式(12)の如く定式化する。
Reliability functions ω X (), ω Z (), L X (), L Z ()
Is formulated as in the following equations (9) to (12).

【0134】[0134]

【数3】 (Equation 3)

【0135】また、φf(),φg()は係数であり、車
両(先行車両)の位置により変動する関数であり、0≦φ
f()≦1、0≦φg()≦1の範囲の値を採り、
φf()+φg()=1なる関係を満たす。そして、係数
φf(),φg()のECU11による具体的な調整の傾
向としては、 ・φf()<φg():即ち、車両(先行車両)が自車両に
近いほど速度に比重を置く(IS2を優先する)。 ・φf()>φg():即ち、車両(先行車両)が自車両か
ら遠いほど位置に比重を置く(LR1を優先する)。
Φ f () and φ g () are coefficients, which are functions that vary depending on the position of the vehicle (preceding vehicle), and 0 ≦ φ
f () ≦ 1, 0 ≦ φ g () ≦ 1
The relationship of φ f () + φ g () = 1 is satisfied. The specific adjustment tendency of the coefficients φ f () and φ g () by the ECU 11 is as follows: φ f () <φ g (): That is, the closer the vehicle (preceding vehicle) is to the own vehicle, the higher the speed becomes. Put specific gravity (IS2 is given priority). Φ f ()> φ g (): That is, the more the vehicle (preceding vehicle) is farther from the host vehicle, the greater the specific gravity at the position (LR1 is given priority).

【0136】実際のパラメータとしては、同様に、LR
1及びIS2のX方向及びZ方向の信頼性の関数を用い
る。
Similarly, the actual parameters are LR
1 and IS2 reliability functions in the X and Z directions are used.

【0137】以下にφ()とφ()とを定式化する。In the following, φ f () and φ g () are formulated.

【0138】[0138]

【数4】 (Equation 4)

【0139】式(6)の第2項のLR1及びIS2の信頼
性を表す式において、WISはIS2における信頼性の点
数であり、WLRはLR1における信頼性の点数であり、
0≦WIS≦1、0≦WLR≦1の範囲の値を採る。また、
θIS、θLRは係数であり、車両の位置により変動する関
数であり、0≦θIS≦1、0≦θLR≦1の範囲の値を採
り、θIS+θLR=1を満たす。
In the expression representing the reliability of LR1 and IS2 in the second term of equation (6), W IS is the reliability score in IS2, W LR is the reliability score in LR1,
Taking values in the range of 0 ≦ W IS ≦ 1, 0 ≦ W LR ≦ 1. Also,
θ IS and θ LR are coefficients that are functions that vary depending on the position of the vehicle, and take values in a range of 0 ≦ θ IS ≦ 1, 0 ≦ θ LR ≦ 1, and satisfy θ IS + θ LR = 1.

【0140】そして、係数θIS,θLRのECU11によ
る具体的な調整の傾向としては、 ・係数θIS<θLR:即ち、基本的にはIS2よりLR1
に大きい比重を置く(LR1を優先する)。 ・係数θIS<<θLR:但し、車両(先行車両)が自車両か
ら遠方になるほどLR1により大きな比重を置く。
The specific adjustment tendency of the coefficients θ IS and θ LR by the ECU 11 is as follows: the coefficient θ ISLR : that is, basically, LR1 is larger than IS2.
(LR1 is given priority). Coefficient θ IS << θ LR : However, as the vehicle (preceding vehicle) is farther from the host vehicle, a larger specific gravity is placed on LR1.

【0141】これらの実際のパラメータも同じようにL
R1及びIS2のX方向及びZ方向の信頼性の関数を用
いる。
These actual parameters are similarly L
The X and Z reliability functions of R1 and IS2 are used.

【0142】以下に示す式(13)及び式(14)によ
り、θIR()とθLR()を定式化する。
The following formulas (13) and (14) are used to formulate θ IR () and θ LR ().

【0143】[0143]

【数5】 (Equation 5)

【0144】本実施形態におけるLR1及びIS2によ
る検出結果のセンサフュージョンによれば、より正確な
車両位置を特定することができる。但し、LR1及びI
S2による検出範囲が重複する第2検出範囲では、実際
には、自車両の前後方向(Z方向)に存在する先行車両の
位置特定はLR1による検出結果だけで十分であり、X
方向に存在する先行車両の位置特定は、以下に示す式
(15)乃至式(16)によるセンサフュージョンによ
って求めることができる。
According to the sensor fusion of the detection results by LR1 and IS2 in this embodiment, a more accurate vehicle position can be specified. However, LR1 and I
In the second detection range where the detection ranges by S2 overlap, actually, the position of the preceding vehicle existing in the front-rear direction (Z direction) of the own vehicle can be specified only by the detection result by LR1.
The position of the preceding vehicle existing in the direction can be determined by sensor fusion using the following equations (15) to (16).

【0145】 XSF=ηISX()×XIS+ηLRX()×XLR ・・・・・・・・・(15) ,但し、式(15)は、 (X座標(SF)) = (LR1に対するIS2のX方向に対
する信頼性)×(X座標(IS2)) + (IS2に対するL
R1のX方向に対する信頼性)×(X座標(LR1)) である。
X SF = η ISX () × XIS + η LRX () × XLR (15) where, (15) is expressed by: (X coordinate (SF)) = (IS2 for LR1) Of X in the X direction) × (X coordinate (IS2)) + (L for IS2
(Reliability of R1 in X direction) × (X coordinate (LR1)).

【0146】 ZSF=ηISZ()×ZIS+ηLRZ×ZLR ・・・・・・・・・(16), 但し、式(16)は、 (Z座標(SF)) = (LR1に対するIS2のZ方向に対
する信頼性)×(Z座標(IS2)) + (IS2に対するL
R1のZ方向に対する信頼性)×(Z座標(LR1)) である。
Z SF = η ISZ () × ZIS + η LRZ × ZLR (16) where Expression (16) is expressed as: (Z coordinate (SF)) = (Z of IS2 with respect to LR1 Reliability in direction) x (Z coordinate (IS2)) + (L for IS2
R1 reliability in the Z direction) × (Z coordinate (LR1)).

【0147】式(15)及び式(16)において、0≦
ηISX()≦1,0≦ηLRX()≦1,0≦ηISZ()≦
1,0≦ηLRZ()≦1の値を採り、ηISX()+ηLRX
()=1、ηISZ()+ηLRZ()=1を満たす。
In equations (15) and (16), 0 ≦
η ISX () ≦ 1,0 ≦ η LRX () ≦ 1,0 ≦ η ISZ () ≦
Take the value of 1,0 ≦ η LRZ () ≦ 1, η ISX () + η LRX
() = 1, η ISZ () + η LRZ () = 1 are satisfied.

【0148】そして、これらの係数のECU11による
具体的な調整の傾向としては、 ・ηISX()=ηLRX():X方向においては、基本的に
はLR1とIS2に同等の比重を置く。 ・ηISX()>ηLRX():但し、赤外画像の両端に近づ
くほどIS2に比重を置く(IS2を優先する)。 ・ηISZ()<ηLRZ():Z方向においては基本的にI
S2よりLR1に大きい比重を置く(LR1を優先す
る)。 ・ηISZ()<<ηLRZ():但し、車両(先行車両)が自
車両から遠方になるほどLR1により大きな比重を置
く。
The specific adjustment tendency of these coefficients by the ECU 11 is as follows: η ISX () = η LRX (): In the X direction, basically, the same specific gravity is placed on LR1 and IS2. • η ISX ()> η LRX (): However, the closer the distance to the both ends of the infrared image is, the greater the specific gravity is given to IS2 (IS2 is given priority). • η ISZ () <η LRZ (): Basically I in the Z direction
A greater specific gravity is placed on LR1 than on S2 (LR1 has priority). Η ISZ () << η LRZ (): However, as the vehicle (preceding vehicle) is farther from the host vehicle, the specific gravity is set higher in LR1.

【0149】以下に示す式(17)及び式(20)によ
り、ηISX(),ηLRX(),ηISZ(),ηLRZ()を定
式化する。
The following formulas (17) and (20) are used to formulate η ISX (), η LRX (), η ISZ (), and η LRZ ().

【0150】[0150]

【数6】 (Equation 6)

【0151】このように、上述したLR1及びIS2に
よって個別に検出した車両の位置、速度、検出結果の信
頼性に基づいて相関関係を算出する上記のセンサフュー
ジョンによれば、監視すべき物体を高精度且つ高確度に
認識することができる。
As described above, according to the above-described sensor fusion, in which the correlation is calculated based on the position and speed of the vehicle individually detected by the LR1 and IS2 and the reliability of the detection result, the object to be monitored is high. It can be recognized with high accuracy and precision.

【0152】<第1検出範囲に他車両(先行車両)が存
在する場合>上記のセンサフュージョンの手順は、上述
したようにLR1及びIS2による実測値に基づく検出
結果が存在する場合に行うことを基本としている。この
ため、第1検出範囲に他車両(先行車両)が存在する場
合は、LR1による検出が行えないため、上記のセンサ
フュージョンを行うことができない。
<When other vehicle (preceding vehicle) exists in first detection range> The above-described procedure of sensor fusion is performed when there is a detection result based on the actually measured values by LR1 and IS2 as described above. Basic. For this reason, when another vehicle (preceding vehicle) exists in the first detection range, the detection by LR1 cannot be performed, and thus the above-described sensor fusion cannot be performed.

【0153】そこで、本実施形態では、第1検出範囲に
他車両(先行車両)が存在する場合に、以下に説明する
2つの処理を行う。
Therefore, in the present embodiment, when another vehicle (preceding vehicle) exists in the first detection range, the following two processes are performed.

【0154】(IS2の検出結果のみによるセンサフュ
ージョン)式(21)に示す評価関数により、IS2の
検出結果のみによるセンサフュージョンを行う。
(Sensor fusion based only on IS2 detection result) Sensor fusion based only on the IS2 detection result is performed using the evaluation function shown in equation (21).

【0155】[0155]

【数7】 (Equation 7)

【0156】但し、式(21)において、(SFの点数)
= (位置によるIS2の信頼性の関数)×(IS2の点
数)である。ECU11が実際に使用するパラメータと
しては、図20に示したIS2のX方向及びZ方向の信
頼性の関数を用いる。
However, in equation (21), (point of SF)
= (Function of reliability of IS2 depending on position) x (point of IS2). As the parameters actually used by the ECU 11, the functions of the reliability of the IS2 in the X and Z directions shown in FIG. 20 are used.

【0157】また、式(22)は、IS2の点数に車両
(先行車)の位置によって変動する係数を掛けることによ
り、自車両の前方に他車両が存在する可能性を定式化し
たものである。この式(22)の5つめのパラメータV
は、車両(先行車)の横方向(X方向)ベクトルであり、
この速度ベクトルが所定の時間にわたって赤外画面の略
中央に向いているならば、θ'IR()=1と設定すること
により、自車両前方への飛び出し車両と認識する。これ
は純粋にIS2による点数を評価の対象としていること
を意味している。
The equation (22) indicates that the vehicle score is given by IS2.
By multiplying by a coefficient that varies depending on the position of the (preceding vehicle), the possibility that another vehicle exists in front of the own vehicle is formulated. The fifth parameter V in this equation (22)
Is a lateral (X direction) vector of the vehicle (preceding vehicle),
If this speed vector is directed substantially toward the center of the infrared screen for a predetermined period of time, by setting θ ′ IR () = 1, it is recognized that the vehicle jumps out ahead of the host vehicle. This means that scores based on IS2 are purely evaluated.

【0158】このように、LR1及びIS2による実測
値に基づく検出結果が第1検出範囲において行えない場
合には、上記の如く車両(先行車)の横方向ベクトルが所
定の時間にわたって赤外画面の略中央に向いているとき
に限って上記のIS2の検出結果のみによるセンサフュ
ージョンを行うことにより、自車両前方への飛び出し車
両を早期の段階で迅速に検出することができる。
As described above, when the detection result based on the actual measurement values by LR1 and IS2 cannot be obtained in the first detection range, the lateral vector of the vehicle (preceding vehicle) is displayed on the infrared screen for a predetermined time as described above. By performing sensor fusion based on only the detection result of IS2 described above only when the vehicle is facing substantially the center, it is possible to quickly detect a vehicle that has jumped ahead of the host vehicle at an early stage.

【0159】(トラッキング処理による車両の挙動予測
情報を用いたセンサフュージョンの継続)上述したLR
1の車両認定処理(図15)を行っているときに、第2
検出範囲から第1検出範囲に車両が移動してしまい、L
R1からの実測データが入力されなくなった場合には、
他車両が第2検出範囲に存在するときにトラッキング処
理(図15のステップS76)において行っていた車両
の挙動予測情報を用いて所定時間(例えば1秒程度)に
わたってLR1の車両認定処理(図15)を継続する。
ここで、係る挙動予測情報を利用したLR1の車両認定
処理の継続を上記の所定時間に限る理由は、車両の挙動
予測情報を用いたLR1の車両認定処理の継続時間が長
くなるほど演算結果の信頼性が低くなっていくからであ
る。
(Continuation of Sensor Fusion Using Vehicle Behavior Prediction Information by Tracking Process)
While performing the vehicle certification process 1 (FIG. 15), the second
The vehicle moves from the detection range to the first detection range, and L
If the measured data from R1 is no longer input,
The LR1 vehicle qualification process (FIG. 15) for a predetermined time (for example, about 1 second) using the vehicle behavior prediction information performed in the tracking process (step S76 in FIG. 15) when another vehicle is present in the second detection range. ) To continue.
Here, the reason why the continuation of the LR1 vehicle qualification process using the behavior prediction information is limited to the above-described predetermined time is that the longer the duration of the LR1 vehicle qualification process using the vehicle behavior prediction information is, the more reliable the calculation result becomes. This is because the sex becomes lower.

【0160】このように、車両の挙動予測情報を用いて
LR1の車両認定処理(図15)を継続するように構成
すれば、上述したLR1及びIS2による検出結果に基
づくセンサフュージョンに必要な情報が揃うので、係る
センサフュージョンを継続することができる。但し、L
R1による検出結果は、雨天の場合等のように、先行車
両によって撒き上げられた雨滴の影響等の影響を受け易
いので、上記の挙動予測情報を用いた継続処理は、悪天
候の場合は行わないほうが良い。
As described above, if the vehicle qualification process of LR1 (FIG. 15) is continued using the vehicle behavior prediction information, the information necessary for sensor fusion based on the detection results by LR1 and IS2 described above is obtained. Since they are aligned, such sensor fusion can be continued. Where L
Since the detection result by R1 is easily affected by the influence of raindrops scattered by the preceding vehicle as in the case of rainy weather, etc., the continuation processing using the behavior prediction information is not performed in bad weather. Better.

【0161】尚、上述した本実施形態では、LR1及び
IS2の検出結果に基づいて算出した車両認識の結果
を、一例として、車間距離警報を行う警報・制御処理
(図4)に適用したが、本実施形態におけるセンサフュ
ージョンによる車両認識処理(図6)は、係るシステム
構成に限られるものではなく、他の警報システムや自動
走行システム、或いは走行支援装置等における他車両の
認識に広く利用して好適である。
In the present embodiment described above, the result of vehicle recognition calculated based on the detection results of LR1 and IS2 is applied to the warning / control process (FIG. 4) for issuing an inter-vehicle distance warning as an example. The vehicle recognition processing by the sensor fusion in this embodiment (FIG. 6) is not limited to such a system configuration, and is widely used for recognition of another vehicle by another warning system, an automatic driving system, a driving support device, or the like. It is suitable.

【0162】また、本実施形態では、自車両の先方に存
在するところの、当該自車両と同方向に進む他車両を検
出する場合を例として、LR1による車両の検出に、検
出対象の車両後部に取り付けられた2つのリフレクタか
らの反射波を利用したが、この処理構成に限られるもの
ではなく、車両前部にリフレクタが設けられている場
合、或いはリフレクタと同等な反射率の部位があるとき
には、それらからの反射波を利用して上述した本実施形
態と同様な手順の処理を行うことにより、対向車の検出
を行っても良い。
Further, in the present embodiment, as an example, the case where another vehicle traveling in the same direction as the own vehicle, which is located ahead of the own vehicle, is detected. Although the reflected waves from the two reflectors attached to the vehicle were used, the present invention is not limited to this processing configuration. When a reflector is provided at the front of the vehicle, or when there is a portion having the same reflectance as the reflector, The oncoming vehicle may be detected by performing the same procedure as in the above-described embodiment using reflected waves from the oncoming vehicles.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態における警報システムが搭載された
車両の装置構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a device configuration of a vehicle equipped with an alarm system according to an embodiment.

【図2】本実施形態におけるXYZ座標の定義を説明す
る図である。
FIG. 2 is a diagram illustrating the definition of XYZ coordinates in the present embodiment.

【図3】本実施形態におけるLR1及びIS2の検出範
囲を示す図である。
FIG. 3 is a diagram showing detection ranges of LR1 and IS2 in the present embodiment.

【図4】本実施形態におけるECU11が実行する警報
・制御処理のフローチャートを示す図である。
FIG. 4 is a diagram illustrating a flowchart of a warning / control process executed by an ECU 11 in the present embodiment.

【図5】警報・制御処理においてECU11が参照する
判断基準を例示する図である。
FIG. 5 is a diagram exemplifying a criterion referred to by an ECU 11 in an alarm / control process.

【図6】本実施形態におけるECU11が実行する車両
認識処理を示すフローチャートである。
FIG. 6 is a flowchart illustrating a vehicle recognition process executed by an ECU 11 according to the present embodiment.

【図7】自車両の前方に存在する車両を撮像した赤外画
像を例示する図である。
FIG. 7 is a diagram illustrating an infrared image of a vehicle existing in front of the host vehicle;

【図8】本実施形態におけるECU11が実行するIS
2による車両の認定処理を示すフローチャートである。
FIG. 8 shows an IS executed by the ECU 11 in the embodiment.
6 is a flowchart showing a vehicle qualification process according to the second embodiment.

【図9】IS2による車両の認定処理のうち、車両画像
の概略推定処理(図8のステップS25)の詳細を示す
フローチャートである。
9 is a flowchart showing details of a vehicle image rough estimation process (step S25 in FIG. 8) in the vehicle certification process by IS2.

【図10】IS2による車両の認定処理のうち、車両検
出処理(図8のステップS26)の詳細を示すフローチ
ャートである。
FIG. 10 is a flowchart showing details of a vehicle detection process (step S26 in FIG. 8) in the vehicle certification process by IS2.

【図11】赤外画像を利用した距離ZISの推定方法
と、排気管領域の画像を基準として設定されるフレーム
のサイズの決定方法とを説明する図である。
FIG. 11 is a diagram illustrating a method of estimating a distance ZIS using an infrared image and a method of determining a frame size set based on an image of an exhaust pipe region.

【図12】距離ZISと車幅Wとの関係を表わす特性曲
線を示す図である。
FIG. 12 is a diagram showing a characteristic curve representing a relationship between a distance ZIS and a vehicle width W.

【図13】IS2による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
FIG. 13 is a diagram showing a characteristic curve referred to by the ECU 11 for determining a constant term in a weighting process of a detection result by IS2.

【図14】IS2による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
FIG. 14 is a diagram showing a characteristic curve referred to by the ECU 11 for determining a constant term in a weighting process of a detection result by IS2.

【図15】本実施形態におけるECU11が実行するL
R1による車両の認定処理を示すフローチャートであ
る。
FIG. 15 illustrates an example of an L executed by the ECU 11 according to the embodiment.
It is a flowchart which shows the recognition process of the vehicle by R1.

【図16】LR1による車両の認定処理におけるグルー
プ化までの手順を説明する図である。
FIG. 16 is a diagram illustrating a procedure up to grouping in a vehicle certification process by LR1.

【図17】トラッキング処理における車両の横方向移動
速度説明する図である。
FIG. 17 is a diagram illustrating a lateral movement speed of a vehicle in the tracking processing.

【図18】LR1による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
FIG. 18 is a diagram showing a characteristic curve referred to by the ECU 11 for determining a constant term in the weighting process of the detection result by the LR1.

【図19】LR1による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
FIG. 19 is a diagram showing a characteristic curve referred to by the ECU 11 for determining a constant term in the weighting process of the detection result by the LR1.

【図20】IS2のX方向及びZ方向に対する検出結果
の信頼性の定義を示す図である。
FIG. 20 is a diagram showing a definition of reliability of a detection result in the X direction and the Z direction of IS2.

【図21】LR1のX方向及びZ方向に対する検出結果
の信頼性の定義を示す図である。
FIG. 21 is a diagram illustrating a definition of reliability of a detection result of the LR1 in the X direction and the Z direction.

【符号の説明】[Explanation of symbols]

1:距離センサ(LR), 2:画像センサ(IS), 3:ブレーキアクチュエータ, 4:スロットルアクチュエータ, 5:スピーカ, 6:ワイパースイッチ, 7:表示装置, 8:照度センサ, 9:車速センサ, 10:GPSセンサ, 11:電子制御ユニット(ECU), 100:車両, 1: distance sensor (LR), 2: image sensor (IS), 3: brake actuator, 4: throttle actuator, 5: speaker, 6: wiper switch, 7: display device, 8: illuminance sensor, 9: vehicle speed sensor, 10: GPS sensor, 11: electronic control unit (ECU), 100: vehicle,

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01C 3/06 G01C 3/06 Z 5J084 G06T 7/00 300 G06T 7/00 300D 5L096 7/60 150 7/60 150J 180 180B G08G 1/16 G08G 1/16 C E // G01S 17/93 G01S 17/88 A (72)発明者 藤岡 健彦 東京都文京区本郷7−3−1 東京大学 工学部 産業機械工学科内 Fターム(参考) 2F065 AA04 AA06 AA22 BB05 BB15 CC11 DD04 DD11 FF01 FF04 FF09 JJ03 JJ08 JJ26 MM02 MM06 QQ04 QQ23 QQ25 QQ36 QQ39 QQ51 RR06 RR08 SS09 SS13 UU05 2F112 AD05 BA06 BA07 CA05 DA32 FA03 FA21 FA32 FA36 FA38 FA45 GA10 3D044 AA01 AA25 AA31 AB01 AC59 AE03 3G093 AA01 BA27 FA01 5H180 AA01 CC02 CC03 CC04 CC12 CC14 FF05 LL01 LL04 LL07 LL09 5J084 AA02 AA05 AB01 AC02 BA03 5L096 AA06 BA04 CA27 FA05 FA14 FA54 FA64 FA66 GA17 HA09 JA09 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G01C 3/06 G01C 3/06 Z 5J084 G06T 7/00 300 G06T 7/00 300D 5L096 7/60 150 7 / 60 150J 180 180B G08G 1/16 G08G 1/16 CE // G01S 17/93 G01S 17/88 A (72) Inventor Takehiko Fujioka 7-3-1 Hongo, Bunkyo-ku, Tokyo Faculty of Engineering, The University of Tokyo F Term (reference) 2F065 AA04 AA06 AA22 BB05 BB15 CC11 DD04 DD11 FF01 FF04 FF09 JJ03 JJ08 JJ26 MM02 MM06 QQ04 QQ23 QQ25 QQ36 QQ39 QQ51 RR06 RR08 SS09 SS13 UU05 2F112 AD05 BA06 FA07 A04 FA32 A AC59 AE03 3G093 AA01 BA27 FA01 5H180 AA01 CC02 CC03 CC04 CC12 CC14 FF05 LL01 LL04 LL07 LL09 5J08 4 AA02 AA05 AB01 AC02 BA03 5L096 AA06 BA04 CA27 FA05 FA14 FA54 FA64 FA66 GA17 HA09 JA09

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 赤外線を用いて所定の撮像範囲を撮像す
る赤外線カメラと、前記赤外線カメラによって撮影され
た赤外画像に基づいて、その赤外画像に含まれるところ
の、前記撮像範囲内に存在する車両であると推定される
部分画像領域を検出すると共に、検出した部分画像領域
に含まれる所定輝度より高輝度に撮影された排気管部分
の画像位置に基づいて、前記車両との距離を検出する検
出手段と、を備えることを特徴とする車両検出装置。
1. An infrared camera for imaging a predetermined imaging range using infrared light, and an infrared camera included in the infrared image based on an infrared image captured by the infrared camera. Detecting a partial image region estimated to be a vehicle to perform, and detecting a distance from the vehicle based on an image position of an exhaust pipe portion photographed with higher luminance than a predetermined luminance included in the detected partial image region. A vehicle detection device comprising:
【請求項2】 前記検出手段は、前記排気管部分の画像
位置を基準として、その画像位置に対して上下左右に所
定割合のサイズを有するフレームを設定し、そのフレー
ムを用いて前記部分画像領域に対するパターンマッチン
グを施すことにより、前記部分画像領域が車両を表わす
画像であるかを判定することを特徴とする請求項1記載
の車両検出装置。
2. The image processing apparatus according to claim 1, wherein the detecting unit sets a frame having a predetermined ratio of size vertically, horizontally, and vertically with respect to the image position of the exhaust pipe portion, and uses the frame to set the partial image area. 2. The vehicle detection device according to claim 1, wherein pattern matching is performed on the partial image region to determine whether the partial image region is an image representing a vehicle.
【請求項3】 前記検出手段には、前記撮像範囲である
画角と、前記赤外線カメラの撮像デバイスを構成する画
素との距離に関する対応関係が予め記憶されており、 前記検出手段は、前記赤外画像の下辺から前記排気管部
分の画像位置までの画素数と、前記距離に関する対応関
係とに基づいて、前記車両との距離を検出することを特
徴とする請求項1記載の車両検出装置。
3. The detecting means stores in advance a correspondence relationship between an angle of view as the imaging range and a pixel constituting an imaging device of the infrared camera. The vehicle detection device according to claim 1, wherein the distance to the vehicle is detected based on a number of pixels from a lower side of an outer image to an image position of the exhaust pipe portion and a correspondence relation regarding the distance.
【請求項4】 前記検出手段には、検出対象である車両
までの距離と、その距離に応じた該車両の標準的な車幅
に対応するところの、前記赤外画像における画素数との
対応関係が予め記憶されており、 前記検出手段は、前記赤外画像によって検出した距離
と、前記車幅に関する対応関係とに基づいて、前記車両
の車幅を推定することを特徴とする請求項3記載の車両
検出装置。
4. The method according to claim 1, wherein the detecting means includes a correspondence between a distance to the vehicle to be detected and a number of pixels in the infrared image corresponding to a standard vehicle width of the vehicle according to the distance. The relationship is stored in advance, and the detection unit estimates the vehicle width of the vehicle based on the distance detected by the infrared image and the correspondence relationship regarding the vehicle width. The vehicle detection device according to any one of the preceding claims.
JP2000288954A 2000-09-22 2000-09-22 Vehicle detecting device Withdrawn JP2002098509A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000288954A JP2002098509A (en) 2000-09-22 2000-09-22 Vehicle detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000288954A JP2002098509A (en) 2000-09-22 2000-09-22 Vehicle detecting device

Publications (1)

Publication Number Publication Date
JP2002098509A true JP2002098509A (en) 2002-04-05

Family

ID=18772445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000288954A Withdrawn JP2002098509A (en) 2000-09-22 2000-09-22 Vehicle detecting device

Country Status (1)

Country Link
JP (1) JP2002098509A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011114547A1 (en) * 2010-03-17 2011-09-22 日立オートモティブシステムズ株式会社 Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
JP2011198114A (en) * 2010-03-19 2011-10-06 Honda Motor Co Ltd Vehicle surrounding monitoring device
JP2011221630A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle periphery monitoring device
KR101125830B1 (en) * 2010-01-15 2012-03-27 서동욱 Safety apparatus for automobile
KR101354719B1 (en) 2013-07-01 2014-01-24 김승현 Apparatus for detecting fog of image and method thereof
WO2014017584A1 (en) * 2012-07-26 2014-01-30 日産自動車株式会社 Vehicle behavior detection device and vehicle behavior detection method
KR101628820B1 (en) * 2015-10-02 2016-06-09 엘아이지넥스원 주식회사 Apparatus for processing ir image
KR101628822B1 (en) * 2015-10-02 2016-06-09 엘아이지넥스원 주식회사 Method for processing ir image using geographic information
WO2023228859A1 (en) * 2022-05-27 2023-11-30 日立Astemo株式会社 Onboard control device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101125830B1 (en) * 2010-01-15 2012-03-27 서동욱 Safety apparatus for automobile
WO2011114547A1 (en) * 2010-03-17 2011-09-22 日立オートモティブシステムズ株式会社 Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
JP2011192226A (en) * 2010-03-17 2011-09-29 Hitachi Automotive Systems Ltd On-board environment recognition device, and on-board environment recognition system
US9064418B2 (en) 2010-03-17 2015-06-23 Hitachi Automotive Systems, Ltd. Vehicle-mounted environment recognition apparatus and vehicle-mounted environment recognition system
JP2011198114A (en) * 2010-03-19 2011-10-06 Honda Motor Co Ltd Vehicle surrounding monitoring device
JP2011221630A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2014017584A1 (en) * 2012-07-26 2014-01-30 日産自動車株式会社 Vehicle behavior detection device and vehicle behavior detection method
JP5843017B2 (en) * 2012-07-26 2016-01-13 日産自動車株式会社 Vehicle behavior detection device and vehicle behavior detection method
KR101354719B1 (en) 2013-07-01 2014-01-24 김승현 Apparatus for detecting fog of image and method thereof
KR101628820B1 (en) * 2015-10-02 2016-06-09 엘아이지넥스원 주식회사 Apparatus for processing ir image
KR101628822B1 (en) * 2015-10-02 2016-06-09 엘아이지넥스원 주식회사 Method for processing ir image using geographic information
WO2023228859A1 (en) * 2022-05-27 2023-11-30 日立Astemo株式会社 Onboard control device

Similar Documents

Publication Publication Date Title
JP2002099907A (en) Object recognizing apparatus
JP2002099906A (en) Object-recognizing device
JP4856612B2 (en) Object detection device
JP4914234B2 (en) Leading vehicle detection device
JP3352655B2 (en) Lane recognition device
JP3671825B2 (en) Inter-vehicle distance estimation device
JP4830604B2 (en) Object detection method and object detection apparatus
US5249128A (en) System and method for determining the distance to an energy emitting object
JP3167752B2 (en) Vehicle distance detection device
JP4275378B2 (en) Stereo image processing apparatus and stereo image processing method
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
JP2003296736A (en) Device for detecting obstacle and method thereof
JP2000030197A (en) Device for detecting warm body
JP7095640B2 (en) Object detector
JP2002098509A (en) Vehicle detecting device
JP2007264712A (en) Lane detector
JP3823782B2 (en) Leading vehicle recognition device
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP2005025497A (en) Sign recognizing device
JP3351340B2 (en) Optical flow type backward information detection device
JP7003972B2 (en) Distance estimation device, distance estimation method and computer program for distance estimation
JP2002116255A (en) Setting device of inter-vehicle distance
JP3882304B2 (en) Self-driving vehicle position detector
JP3742152B2 (en) Vehicle imaging device
JPH11259792A (en) Method and device for recognizing vehicle

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204