JP7193942B2 - vehicle detector - Google Patents

vehicle detector Download PDF

Info

Publication number
JP7193942B2
JP7193942B2 JP2018141214A JP2018141214A JP7193942B2 JP 7193942 B2 JP7193942 B2 JP 7193942B2 JP 2018141214 A JP2018141214 A JP 2018141214A JP 2018141214 A JP2018141214 A JP 2018141214A JP 7193942 B2 JP7193942 B2 JP 7193942B2
Authority
JP
Japan
Prior art keywords
vehicle
detection unit
unit
vehicle detection
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018141214A
Other languages
Japanese (ja)
Other versions
JP2020017184A (en
Inventor
志鵬 姚
修造 金子
貴之 金子
俊輔 近藤
賢治 加藤
守 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018141214A priority Critical patent/JP7193942B2/en
Publication of JP2020017184A publication Critical patent/JP2020017184A/en
Application granted granted Critical
Publication of JP7193942B2 publication Critical patent/JP7193942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両検知装置に関する。 The present invention relates to vehicle detection devices.

従来、自車両に接近する車両を検知する技術が求められている。そのような背景から、接近車両を検知する技術としてパターン認識が適用されることがある。このパターン認識の一例には、接近車両を正面から見た画像を特徴として予め記憶し、車載カメラで撮像されたカメラ画像の中に特徴と一致する部分が存在するか否かの判断を行うものがある。 Conventionally, there has been a demand for a technique for detecting vehicles approaching one's own vehicle. Against this background, pattern recognition is sometimes applied as a technique for detecting approaching vehicles. As an example of this pattern recognition, an image of an approaching vehicle viewed from the front is stored in advance as a feature, and it is determined whether or not there is a part that matches the feature in the camera image captured by the vehicle-mounted camera. There is

上述したパターン認識では、接近車両を正面から見た画像のみを用いて、接近車両か否かの認識が行われる。したがって、接近車両の向きが変わると、接近車両を検知できなくなることがある。 In the pattern recognition described above, recognition of whether or not the approaching vehicle is an approaching vehicle is performed using only an image of the approaching vehicle viewed from the front. Therefore, when the orientation of the approaching vehicle changes, it may not be possible to detect the approaching vehicle.

一方、パターン認識に別の画像処理を組み合わせて、接近車両を認識する技術が提案されている(例えば、特許文献1参照)。この技術では、カメラ画像の中に、背景に対する接近車両の動きが大きい第一領域と、背景に対する接近車両の動きが小さい第二領域とが設定される。第一領域では、エッジ等の特徴点の移動に基づいて接近車両が検知される。第二領域では、パターン認識で接近車両が検知される。 On the other hand, there has been proposed a technique of recognizing an approaching vehicle by combining pattern recognition with another image processing (see, for example, Patent Document 1). In this technique, a first area where the movement of the approaching vehicle is large relative to the background and a second area where the movement of the approaching vehicle is small relative to the background are set in the camera image. In the first area, an approaching vehicle is detected based on movement of feature points such as edges. In the second area, an approaching vehicle is detected by pattern recognition.

特開2009-181557号公報JP 2009-181557 A

特許文献1に開示された技術では、特徴点が時間の経過とともに移動することを利用して、接近車両が検知される。接近車両を正しく検知するには、接近車両の特徴点と、背景の特徴点とを区別して分類することが望ましい。そうすると、接近車両の特徴点のみならず、動きのない背景の特徴点もカメラ画像の中から抽出せざるを得ない。したがって、特徴点の数が増加し、システムに要求される処理負荷が高くなる問題があった。 In the technique disclosed in Patent Document 1, an approaching vehicle is detected using the fact that feature points move over time. In order to detect an approaching vehicle correctly, it is desirable to distinguish and classify the feature points of the approaching vehicle from the feature points of the background. Then, not only the feature points of the approaching vehicle but also the feature points of the static background must be extracted from the camera image. Therefore, there is a problem that the number of feature points increases and the processing load required of the system increases.

本発明は、上記課題に鑑みてなされたもので、車載カメラで撮像した画像に基づく俯瞰画像を利用することで、処理負荷を軽減することのできる車両検知装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a vehicle detection device capable of reducing the processing load by using a bird's-eye view image based on an image captured by an in-vehicle camera.

本発明に係る車両検知装置は、路面上を走行する自車両の周辺を撮像する撮像部により前記周辺を撮像して得られた画像に対して、他車両の特徴に基づくパターン認識を行い、前記他車両を検知する第1の車両検知部と、前記撮像部が異なる時刻に撮像して得られた複数の画像の夫々に対して、前記自車両の上方の仮想視点から前記他車両を俯瞰するように視点変換した複数の俯瞰画像間の相関に基づいて、前記他車両を検知する第2の車両検知部と、前記第1の車両検知部の確信度が予め定められた閾値を超え、且つ、前記第2の車両検知部の確信度が前記閾値以下となるとき、前記第1の車両検知部に前記他車両を検知させる制御を行い、前記第1の車両検知部の確信度が前記閾値以下で、且つ、前記第2の車両検知部の確信度が前記閾値を超えるとき、前記第2の車両検知部に前記他車両を検知させる制御を行う検知制御部とを備えることを特徴とする。 The vehicle detection device according to the present invention performs pattern recognition based on the characteristics of other vehicles on an image obtained by imaging the surroundings of the own vehicle traveling on the road surface with an imaging unit that images the surroundings of the vehicle. A first vehicle detection unit for detecting the other vehicle and a plurality of images captured at different times by the image capturing unit are captured, and the other vehicle is viewed from a virtual viewpoint above the own vehicle. Based on the correlation between a plurality of bird's-eye view images converted from the viewpoint in the above manner, the confidence levels of the second vehicle detection unit for detecting the other vehicle and the first vehicle detection unit exceed a predetermined threshold, and and controlling the first vehicle detection unit to detect the other vehicle when the confidence of the second vehicle detection unit is equal to or less than the threshold, and the confidence of the first vehicle detection unit is the threshold and a detection control unit that controls the second vehicle detection unit to detect the other vehicle when the reliability of the second vehicle detection unit exceeds the threshold. .

この発明によれば、車載カメラで撮像した画像に基づく俯瞰画像を利用することで、システムに要求される処理負荷を軽減することができる。 According to this invention, it is possible to reduce the processing load required of the system by using the bird's-eye view image based on the image captured by the vehicle-mounted camera.

実施例1の車両検知装置を適用した車両検知システムを構成するハードウェア要素を示すハードウェアブロック図である。2 is a hardware block diagram showing hardware elements forming a vehicle detection system to which the vehicle detection device of Example 1 is applied; FIG. 他車両を正面から見た場合の特徴を示す説明図である。FIG. 10 is an explanatory diagram showing features when another vehicle is viewed from the front; 車両検知装置を左側通行の道路に適用する場面を示す説明図である。It is explanatory drawing which shows the scene which applies a vehicle detection apparatus to the road of left-hand traffic. 車両検知装置で行われる一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes performed by a vehicle detection apparatus. カメラが撮像した画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which the camera imaged. 車両検知処理の具体的な流れを示すフローチャートである。4 is a flowchart showing a specific flow of vehicle detection processing; 俯瞰画像の一例を模式的に示す図である。It is a figure which shows an example of a bird's-eye view image typically. 車体差分登録処理を説明するための図である。It is a figure for demonstrating a vehicle body difference registration process. 第1の車両検知部と第2の車両検知部の各検知結果が等しくなった状態を示す説明図である。It is explanatory drawing which shows the state which each detection result of the 1st vehicle detection part and the 2nd vehicle detection part became equal. 確信度の一例を示す説明図である。It is explanatory drawing which shows an example of certainty. 車体差分登録処理の具体的な流れを示すフローチャートである。4 is a flowchart showing a specific flow of vehicle body difference registration processing; 車体位置算出処理の具体的な流れを示すフローチャートである。4 is a flowchart showing a specific flow of vehicle body position calculation processing; 他車両の車長の算出手順を示す説明図である。FIG. 4 is an explanatory diagram showing a procedure for calculating the vehicle length of another vehicle; 実施例1に係る車両検知装置の変形例を示す説明図である。FIG. 5 is an explanatory diagram showing a modification of the vehicle detection device according to the first embodiment;

以下、本発明に係る車両検知装置の具体的な実施形態について、図面を参照して説明する。 Hereinafter, specific embodiments of a vehicle detection device according to the present invention will be described with reference to the drawings.

(実施例1の構成の説明)
図1は、実施例1の車両検知装置100を適用した運転支援システム10を構成するハードウェア要素を示すハードウェアブロック図である。まず、車両検知装置100を適用したシステム構成について図1を用いて説明する。
(Description of the configuration of the first embodiment)
FIG. 1 is a hardware block diagram showing hardware elements forming a driving assistance system 10 to which a vehicle detection device 100 of Embodiment 1 is applied. First, a system configuration to which the vehicle detection device 100 is applied will be described with reference to FIG.

本実施例の運転支援システム10は、自車両1(図3)に実装される。運転支援システム10は、前方カメラ20F(撮像部)と、左側方カメラ20L(撮像部)と、右側方カメラ20R(撮像部)とを有する。なお以下、前方カメラ20F、左側方カメラ20L及び右側方カメラ20Rを特に区別して説明する必要がない場合、単にカメラ20という。 A driving support system 10 of the present embodiment is mounted on a host vehicle 1 (FIG. 3). The driving support system 10 has a front camera 20F (imaging section), a left side camera 20L (imaging section), and a right side camera 20R (imaging section). Hereinafter, the front camera 20F, the left side camera 20L, and the right side camera 20R will simply be referred to as cameras 20 when there is no need to distinguish them.

自車両1のフロントバンパやフロントグリルには、自車両1の前方に向けて前方カメラ20Fが搭載される。自車両1の左ドアミラーには、自車両1の左側方に向けて左側方カメラ20Lが搭載される。自車両1の右ドアミラーには、自車両1の右側方に向けて右側方カメラ20Rが搭載される。 A front camera 20</b>F is mounted on the front bumper and front grill of the vehicle 1 so as to face the front of the vehicle 1 . A left side camera 20</b>L is mounted on the left door mirror of the vehicle 1 toward the left side of the vehicle 1 . A right side camera 20R is mounted on the right door mirror of the vehicle 1 so as to face the right side of the vehicle 1. - 特許庁

カメラ20には、広角の魚眼カメラを備えたカメラが採用される。魚眼カメラは広角の画像を取得するために、既知の歪み補正関数に基づいて、歪み補正を行う。カメラ20で撮像された画像は、車両検知装置100に出力される。 A camera equipped with a wide-angle fisheye camera is adopted as the camera 20 . A fisheye camera performs distortion correction based on a known distortion correction function in order to acquire a wide-angle image. An image captured by the camera 20 is output to the vehicle detection device 100 .

運転支援システム10は、さらに、車両状態検出部30と、車速制御部40と、ディスプレイ制御部50と、音声出力制御部60と、測距センサ70と、車両検知装置100とを有する。 The driving support system 10 further includes a vehicle state detection unit 30, a vehicle speed control unit 40, a display control unit 50, an audio output control unit 60, a distance measurement sensor 70, and a vehicle detection device 100.

車両状態検出部30は、シフトレバーの状態、車輪速(車速)、駐車方式(並列駐車又は縦列駐車)などの車両状態を示す信号を車両検知装置100に出力する。 The vehicle state detection unit 30 outputs to the vehicle detection device 100 a signal indicating the vehicle state such as the shift lever state, wheel speed (vehicle speed), parking method (parallel parking or parallel parking).

車速制御部40は、自車両1のエンジン(不図示)やブレーキ(不図示)を制御して、自車両1を加速させたり減速させたりする。 The vehicle speed control unit 40 controls an engine (not shown) and a brake (not shown) of the own vehicle 1 to accelerate or decelerate the own vehicle 1 .

ディスプレイ制御部50は、第1の車両検知部101や第2の車両検知部102の検知結果をディスプレイ(不図示)に表示する制御を行う。 The display control unit 50 performs control to display the detection results of the first vehicle detection unit 101 and the second vehicle detection unit 102 on a display (not shown).

音声出力制御部60は、第1の車両検知部101や第2の車両検知部102の検知結果に基づいて、音声警報を出力する。 The voice output control section 60 outputs a voice warning based on the detection results of the first vehicle detection section 101 and the second vehicle detection section 102 .

測距センサ70は、超音波センサやレーザレーダ等のセンサからなり、前方測距センサ70Fと、左側方測距センサ70Lと、右側方測距センサ70Rとで構成されている。測距センサ70のうち前方を向いている測距センサ70を前方測距センサ70Fという。測距センサ70のうち左側方を向いている測距センサ70を左側方測距センサ70Lという。測距センサ70のうち右側方を向いている測距センサ70を右側方測距センサ70Rという。なお以下、前方測距センサ70F、左側方測距センサ70L及び右側方測距センサ70Rを特に区別して説明する必要がない場合、単に測距センサ70という。 The ranging sensor 70 is an ultrasonic sensor, a laser radar, or the like, and includes a front ranging sensor 70F, a left ranging sensor 70L, and a right ranging sensor 70R. Among the ranging sensors 70, the ranging sensor 70 facing forward is called a forward ranging sensor 70F. Among the ranging sensors 70, the ranging sensor 70 directed to the left side is referred to as a left side ranging sensor 70L. Among the ranging sensors 70, the ranging sensor 70 directed to the right side is referred to as a right ranging sensor 70R. Hereinafter, the front range sensor 70F, the left side range sensor 70L, and the right side range sensor 70R are simply referred to as the range sensor 70 when there is no need to distinguish them.

自車両1の前部には、前方測距センサ70Fが搭載される。自車両1の左側部には、左側方測距センサ70Lが搭載される。自車両1の右側部には、右側方測距センサ70Rが搭載される。測距センサ70は、車両検知装置100からの指示に基づいて、自車両1の周辺に所定周波数の測定波を逐次照射する。測距センサ70は、その測定波の照射範囲内の物体に当たって反射した反射波を逐次受信する。 A forward ranging sensor 70F is mounted on the front portion of the vehicle 1 . A left side ranging sensor 70L is mounted on the left side of the vehicle 1 . A right side ranging sensor 70R is mounted on the right side of the vehicle 1 . The distance measurement sensor 70 sequentially irradiates the surroundings of the own vehicle 1 with measurement waves of a predetermined frequency based on an instruction from the vehicle detection device 100 . The ranging sensor 70 successively receives the reflected waves reflected by objects within the irradiation range of the measurement waves.

(車両検知装置の概略構成)
図1は、本発明の一実施形態に係る車両検知装置100の概略構成を示す。以下、図1を用いて車両検知装置100の概略構成を説明する。
(Schematic configuration of vehicle detection device)
FIG. 1 shows a schematic configuration of a vehicle detection device 100 according to one embodiment of the invention. A schematic configuration of the vehicle detection device 100 will be described below with reference to FIG. 1 .

車両検知装置100は、第1の車両検知部101と、第2の車両検知部102と、検知制御部103と、エッジ候補判定部104と、エッジ判定部105と、記憶部106とを備える。 Vehicle detection device 100 includes first vehicle detection unit 101 , second vehicle detection unit 102 , detection control unit 103 , edge candidate determination unit 104 , edge determination unit 105 , and storage unit 106 .

車両検知装置100の内部には、例えば、周辺デバイスを含めたマイクロプロセッサ及びプログラム、必要な処理を実行するRAM(Random Access Memory)、ROM(Read Only Memory)、画像処理や信号処理を行う専用ASIC(Application Specific Integrated Circuit)等のモジュールが実装されている。 Inside the vehicle detection device 100, for example, a microprocessor and programs including peripheral devices, a RAM (Random Access Memory) that performs necessary processing, a ROM (Read Only Memory), a dedicated ASIC that performs image processing and signal processing (Application Specific Integrated Circuit) and other modules are mounted.

第1の車両検知部101は、カメラ20により自車両1の周辺を撮像して得られた画像に対して、他車両2(図3)の特徴に基づくパターン認識を行い、他車両2を検知する。 The first vehicle detection unit 101 detects the other vehicle 2 by performing pattern recognition based on the characteristics of the other vehicle 2 ( FIG. 3 ) on the image obtained by imaging the surroundings of the own vehicle 1 with the camera 20 . do.

第2の車両検知部102は、カメラ20が異なる時刻に撮像して得られた複数の画像の夫々に対して、自車両1の上方の仮想視点から他車両2を俯瞰するように視点変換した複数の俯瞰画像間の相関に基づいて、他車両2を検知する。 The second vehicle detection unit 102 converts each of the plurality of images captured by the camera 20 at different times so that the other vehicle 2 is viewed from a virtual viewpoint above the own vehicle 1. Another vehicle 2 is detected based on the correlation between a plurality of bird's-eye view images.

検知制御部103は、第1の車両検知部101の確信度が予め定められた閾値を超え、且つ、第2の車両検知部102の確信度が閾値以下となるとき、第1の車両検知部101に他車両2を検知させる制御を行い、第1の車両検知部101の確信度が閾値以下で、且つ、第2の車両検知部102の確信度が閾値を超えるとき、第2の車両検知部102に他車両2を検知させる制御を行う。 When the certainty of the first vehicle detection unit 101 exceeds a predetermined threshold and the certainty of the second vehicle detection unit 102 is equal to or less than the threshold, the detection control unit 103 controls the first vehicle detection unit 101 is controlled to detect another vehicle 2, and when the certainty of the first vehicle detection unit 101 is equal to or less than the threshold and the certainty of the second vehicle detection unit 102 exceeds the threshold, the second vehicle detection Control is performed to cause the unit 102 to detect the other vehicle 2 .

なお、エッジ候補判定部104、エッジ判定部105及び記憶部106の詳細は後述する。 Details of the edge candidate determination unit 104, the edge determination unit 105, and the storage unit 106 will be described later.

(車両検知装置100で行われる一連の処理の流れ)
次に、車両検知装置100で行われる一連の処理の流れを、図3に示す説明図と図4に示すフローチャートとを用いて説明する。図3は、車両検知装置100を左側通行の道路に適用する場面を示している。
(Flow of a series of processes performed by the vehicle detection device 100)
Next, the flow of a series of processes performed by the vehicle detection device 100 will be described using the explanatory diagram shown in FIG. 3 and the flowchart shown in FIG. FIG. 3 shows a scene in which the vehicle detection device 100 is applied to a left-hand traffic road.

一連の処理は、図3に示すように、自車両1の後方から自車両1に他車両2が接近してくる場面に車両検知装置100(図1)を適用したものである。 As shown in FIG. 3, a series of processing is performed by applying the vehicle detection device 100 (FIG. 1) to a scene in which another vehicle 2 is approaching the own vehicle 1 from behind.

この場面における車両検知装置100の動作条件としては、自車両1が縦列駐車されて停車中の状態から例えば時速2km以下の低速度で白抜きの矢印F1で示す方向に発進する状態を想定している。この場面では、自車両1の後方から自車両1に向けて白抜きの矢印F2で示す方向に接近してくる他車両の速度は例えば時速25km以下を想定している。 As the operation condition of the vehicle detection device 100 in this scene, it is assumed that the own vehicle 1 is parallel parked and starts in the direction indicated by the white arrow F1 at a low speed of 2 km/h or less, for example. there is In this scene, the speed of another vehicle approaching the own vehicle 1 from behind the own vehicle 1 in the direction indicated by the white arrow F2 is assumed to be, for example, 25 km/h or less.

検知制御部103は、自車両1から他車両2までの距離が所定距離を超えるとき、第1の車両検知部101に他車両2を検知させる制御とし、自車両1から他車両2までの距離が所定距離以下となるとき、第2の車両検知部102に他車両2を検知させる制御とする。 The detection control unit 103 controls the first vehicle detection unit 101 to detect the other vehicle 2 when the distance from the own vehicle 1 to the other vehicle 2 exceeds a predetermined distance. is equal to or less than a predetermined distance, the second vehicle detection unit 102 is controlled to detect the other vehicle 2 .

(第1の車両検知部101で行われる処理の説明)
まず、第1の車両検知部101で行われる処理について説明する。第1の車両検知部101は、他車両2のテンプレートと、対象画像に含まれる物体とが一致するか否かを判断する。例えば、第1の車両検知部101では、そのテンプレートと対象画像の特徴点を比較するパターンマッチング法が用いられる。パターンマッチング法に用いるテンプレートは、予め記憶部106に記憶されている。
(Description of processing performed by the first vehicle detection unit 101)
First, processing performed by the first vehicle detection unit 101 will be described. The first vehicle detection unit 101 determines whether or not the template of the other vehicle 2 matches the object included in the target image. For example, the first vehicle detection unit 101 uses a pattern matching method that compares the feature points of the template and the target image. A template used for the pattern matching method is stored in the storage unit 106 in advance.

本実施例では、例えば、他車両2を正面から見た場合の特徴を、図2に示すように左右ライトとナンバープレートとフロントガラスとする(図2)。これらの特徴を含むテンプレートは、予め定義されて記憶部106に記憶されている。これにより、カメラ20が撮像した画像の中に、特徴と一致する部分が存在するか否かの判定が行われる。その判定の結果、特徴と一致する部分が存在する場合、他車両2が検知される。 In this embodiment, for example, the features when the other vehicle 2 is viewed from the front are left and right lights, a license plate, and a windshield as shown in FIG. 2 (FIG. 2). Templates containing these features are defined in advance and stored in storage unit 106 . Thus, it is determined whether or not the image captured by the camera 20 has a portion that matches the feature. As a result of the determination, if there is a part that matches the characteristics, the other vehicle 2 is detected.

このように、第1の車両検知部101の検知動作は、他車両2を正面から見た場合の特徴を用いて行われる。したがって、他車両2の向きが正面向きから側面向きや背面向きに変わると、第1の車両検知部101は他車両2を正確に検知できない。だからといって、刻々と変化する他車両2の動きに応じてテンプレートを準備すると、記憶部106に記憶すべきテンプレートの情報量が増大する。 In this manner, the detection operation of the first vehicle detection unit 101 is performed using the characteristics of the other vehicle 2 when viewed from the front. Therefore, if the orientation of the other vehicle 2 changes from front facing to side facing or rear facing, the first vehicle detection unit 101 cannot detect the other vehicle 2 accurately. However, if a template is prepared according to the ever-changing movement of the other vehicle 2, the amount of template information to be stored in the storage unit 106 increases.

そこで、本実施例では、自車両1から他車両2までの距離が所定距離を超える遠方に他車両2が存在する場合のみ、第1の車両検知部101の検知動作を行う。そして、自車両1から他車両2までの距離が所定距離以下となる近辺に他車両2が存在する場合には、第2の車両検知部102の検知動作を行う。第2の車両検知部102では、俯瞰画像のフレーム間の差分を利用して、他車両2の検知が行われる。具体的に、フレーム間で静止物(背景)には差分が無いのに対して、他車両2には差分があることに着目して、他車両2の検知が行われる。 Therefore, in this embodiment, the detection operation of the first vehicle detection unit 101 is performed only when the other vehicle 2 exists farther than the predetermined distance from the own vehicle 1 to the other vehicle 2 . Then, when the other vehicle 2 exists in the vicinity where the distance from the own vehicle 1 to the other vehicle 2 is equal to or less than a predetermined distance, the detection operation of the second vehicle detection unit 102 is performed. The second vehicle detection unit 102 detects the other vehicle 2 using the difference between the frames of the bird's-eye view image. Specifically, the other vehicle 2 is detected by focusing on the fact that there is no difference in the stationary object (background) between the frames, but there is a difference in the other vehicle 2 .

(第2の車両検知部102で行われる処理の説明)
この場面における第2の車両検知部102の検知領域は、第1の車両検知部101では他車両2の検知が困難とされる範囲に設定される。具体的に、第2の車両検知部102の検知領域は、自車両1の右側方に例えば二車線の幅寸法に相当する6mに設定されるとともに、自車両1の後方に例えば8m~15mに設定される。ここで、15mは、カメラで撮影した画像に基づいてパターンマッチング(第1の車両検知)による認識率が高くなる(90%以上)最長の検知距離を示し、ここからパターンマッチングによる車両検知が開始される。また、8mは、俯瞰差分画像による検知方法(第2の車両検知)の認識率が高くなる(約70%~85%)最長の検知距離を示し、ここから俯瞰差分画像のみによる車両検知が開始される。通常、1レーンの幅が3mくらいであるため、2レーン分(3m×2)の6mをカメラによる検知範囲(=カメラ設置位置からの距離)としている。
(Description of processing performed by the second vehicle detection unit 102)
The detection area of the second vehicle detection unit 102 in this scene is set to a range in which it is difficult for the first vehicle detection unit 101 to detect the other vehicle 2 . Specifically, the detection area of the second vehicle detection unit 102 is set to, for example, 6 m corresponding to the width of two lanes on the right side of the vehicle 1, and to the rear of the vehicle 1, for example, 8 to 15 m. set. Here, 15 m indicates the longest detection distance at which the recognition rate by pattern matching (first vehicle detection) is high (90% or more) based on the image taken by the camera, and vehicle detection by pattern matching starts from here. be done. In addition, 8 m indicates the longest detection distance at which the recognition rate of the detection method (second vehicle detection) using the bird's-eye difference image is high (approximately 70% to 85%), and vehicle detection using only the bird's-eye difference image starts from here. be done. Since the width of one lane is usually about 3 m, the detection range of the camera (=distance from the camera installation position) is set to 6 m for two lanes (3 m×2).

図4に示す一連の処理は、例えば、ドライバのスイッチ操作により車両検知処理の実行開始を指示する入力が車両検知装置100に送られたときに開始される。 The series of processes shown in FIG. 4 is started, for example, when an input instructing the start of execution of the vehicle detection process is sent to the vehicle detection device 100 by the driver's switch operation.

(ステップS1)
まず、第1の車両検知部101は、右側方カメラ20Rが異なる時刻(t-Δt),(t)に自車両1の直近の路面を含む右側方観測範囲を撮像して得られた画像I(t-Δt),I(t)を取得する。図5は、画像Iの一例を模式的に示す図である。各画像I(t-Δt),I(t)は記憶部106に記憶される。なお以下、画像I(t-Δt),I(t)を特に区別して説明する必要がない場合、単に画像Iという。
(Step S1)
First, the first vehicle detection unit 101 captures an image I Obtain (t−Δt), I(t). FIG. 5 is a diagram schematically showing an example of image I. As shown in FIG. Each image I(t−Δt) and I(t) is stored in storage unit 106 . Hereinafter, images I(t−Δt) and I(t) will simply be referred to as image I when there is no need to distinguish between them.

(ステップS2)
次に、第1の車両検知部101は、他車両2のテンプレートと、画像Iの中に存在する他車両2とが一致するか否かを検知する。両者が一致する場合、第1の車両検知部101において画像Iの中に他車両2が存在すると検知され、処理はステップS3に移行する。両者が一致しない場合、第1の車両検知部101において画像Iの中に他車両2が存在しないと検知され、車両検知装置100で行われる処理が終了する。
(Step S2)
Next, the first vehicle detection unit 101 detects whether or not the template of the other vehicle 2 and the other vehicle 2 present in the image I match. If the two match, the first vehicle detection unit 101 detects that the other vehicle 2 is present in the image I, and the process proceeds to step S3. If the two do not match, the first vehicle detection unit 101 detects that the other vehicle 2 does not exist in the image I, and the processing performed by the vehicle detection device 100 ends.

(ステップS3)
次に、検知制御部103は、第1の車両検知部101における検知処理結果を記憶部106に記憶する。
(Step S3)
Next, the detection control unit 103 stores the detection processing result of the first vehicle detection unit 101 in the storage unit 106 .

(ステップS4)
次に、第2の車両検知部102は、他車両2を検知する車両検知処理を行う。この車両検知処理の詳細な流れは後述する。
(Step S4)
Next, the second vehicle detection unit 102 performs vehicle detection processing for detecting the other vehicle 2 . A detailed flow of this vehicle detection processing will be described later.

(ステップS5)
次に、検知制御部103は、第2の車両検知部102における検知処理結果を記憶部106に記憶する。
(Step S5)
Next, the detection control unit 103 stores the detection processing result of the second vehicle detection unit 102 in the storage unit 106 .

(ステップS6)
次に、検知制御部103は、第1の車両検知部101における検知処理結果と第2の車両検知部102における検知処理結果とに基づいて、他車両2を検知する。
(Step S6)
Next, the detection control unit 103 detects another vehicle 2 based on the detection processing result of the first vehicle detection unit 101 and the detection processing result of the second vehicle detection unit 102 .

(車両検知処理の具体的な流れの説明)
次に、図4のステップS4に示した車両検知処理の具体的な流れについて、図6のフローチャートを用いて説明する。
(Description of specific flow of vehicle detection processing)
Next, a specific flow of the vehicle detection process shown in step S4 of FIG. 4 will be described using the flowchart of FIG.

(ステップS11)
まず、第2の車両検知部102は、画像I(t-Δt),I(t)の夫々に対して、自車両1の上方の仮想視点から他車両2を俯瞰するように視点変換し、俯瞰画像BI(t-Δt),BI(t)を生成する。なお以下、俯瞰画像BI(t-Δt),BI(t)を特に区別して説明する必要がない場合、単に俯瞰画像BIという。
(Step S11)
First, the second vehicle detection unit 102 converts each of the images I(t−Δt) and I(t) from a virtual viewpoint above the own vehicle 1 to a bird's-eye view of the other vehicle 2, Bird's-eye view images BI(t−Δt) and BI(t) are generated. In the following description, bird's-eye view images BI(t−Δt) and BI(t) are simply referred to as bird's-eye view images BI when there is no need to distinguish between them.

図7は、俯瞰画像BIの一例を模式的に示す図である。図7に示すように、画像I(図5)は、車体の鉛直部分のエッジがカメラ20から放射状に広がるように写像変換される。俯瞰画像BIを利用すれば、他車両2の位置の検知が容易になる。また、他車両2以外に複数の車両が存在したとしても、各車両の区別が容易になる。 FIG. 7 is a diagram schematically showing an example of the overhead image BI. As shown in FIG. 7, the image I (FIG. 5) is mapped so that the edges of the vertical portion of the vehicle radiate from the camera 20 . Using the bird's-eye view image BI makes it easier to detect the position of the other vehicle 2 . In addition, even if there are a plurality of vehicles other than the other vehicle 2, each vehicle can be easily distinguished.

(ステップS12)
第2の車両検知部102は、俯瞰画像BI(t-Δt)に映り込んだ静止物(背景)と、俯瞰画像BI(t)に映り込んだ静止物(背景)との位置合わせを行う。その位置合わせの後、第2の車両検知部102は、俯瞰画像BI(t)から俯瞰画像BI(t-Δt)を減算する減算処理を施して差分画像DPを生成する。
(Step S12)
The second vehicle detection unit 102 aligns the stationary object (background) reflected in the bird's-eye view image BI(t−Δt) with the stationary object (background) reflected in the bird's-eye view image BI(t). After the alignment, the second vehicle detection unit 102 performs a subtraction process of subtracting the bird's-eye view image BI(t−Δt) from the bird's-eye view image BI(t) to generate a difference image DP.

(ステップS13)
第2の車両検知部102は、右側方カメラ20Rから放射方向に延びる複数本の放射線RLを初期化する。初期化とは、ステップS14の車体差分登録処理を開始するために、複数本の放射線RLを消去することをいう。
(Step S13)
The second vehicle detection unit 102 initializes a plurality of rays RL radially extending from the right side camera 20R. Initialization means erasing a plurality of radiation lines RL in order to start the vehicle body difference registration process in step S14.

(ステップS14)
図8は車体差分登録処理を説明するための図である。第2の車両検知部102は、図8に示すように、差分画像DPを右側方カメラ20Rから放射方向に延びる複数本の放射線RLで右側方カメラ20Rの位置を中心として等角度(例えば、3度)おきに分割する。放射線RLは、差分画像DPの中に存在する他車両2の路面に対する鉛直性を示す指標となる。図8に示すように、俯瞰画像BIに含まれる他車両2は、6本の放射線RLによって6つの立体物領域に分割される。
(Step S14)
FIG. 8 is a diagram for explaining the vehicle body difference registration process. As shown in FIG. 8, the second vehicle detection unit 102 captures the differential image DP with a plurality of rays RL extending in the radial direction from the right side camera 20R at an equal angle (for example, 3 degrees) around the position of the right side camera 20R. degrees). The radiation RL serves as an index indicating the verticality of the other vehicle 2 existing in the differential image DP with respect to the road surface. As shown in FIG. 8, the other vehicle 2 included in the bird's-eye view image BI is divided into six solid object regions by six rays RL.

(ステップS15)
エッジ候補判定部104は、車体差分登録処理を行う。この車体差分登録処理の詳細な流れは後述する。
(Step S15)
The edge candidate determination unit 104 performs vehicle body difference registration processing. A detailed flow of the vehicle body difference registration process will be described later.

(ステップS16)
エッジ候補判定部104は、車両位置算出処理を行う。この車両位置算出処理の詳細な流れは後述する。
(Step S16)
The edge candidate determination unit 104 performs vehicle position calculation processing. A detailed flow of the vehicle position calculation process will be described later.

(ステップS17)
検知制御部103は、第1の車両検知部101の確信度が予め定められた閾値を超え、且つ、第2の車両検知部102の確信度が閾値以下となるとき、第1の車両検知部101に他車両2を検知させる制御を行い、第1の車両検知部101の確信度が閾値以下で、且つ、第2の車両検知部102の確信度が閾値を超えるとき、第2の車両検知部102に他車両2を検知させる制御を行う。検知制御部103は、第1の車両検知部101の検知領域と第2の車両検知部102の検知領域とが重なる結合領域(図10)に位置する他車両2を中心とする円CI(図9)を描く。ここで、結合領域とは、遠方から接近してくる他車両2の追跡を第1の車両検知部101から第2の車両検知部102に切り替えていくための区間である。図9は、第1の車両検知部と第2の車両検知部の各検知結果が等しくなった状態を示す説明図である。図10に示すように、第1の車両検知部101による検知結果の確信度(=検知確信度)は徐々に下がっていく。逆に、図10に示すように、第2の車両検知部102による検知結果の確信度(=検知確信度)は上がっていく。そして、図9において線が引かれた地点付近で、両者の検知結果の確信度が等しくなる。この区間では、接近してくる他車両2を両者の検知結果に基づき、例えば、確信度による重み付け加算して、他車両2の位置を求める。
(Step S17)
When the certainty of the first vehicle detection unit 101 exceeds a predetermined threshold and the certainty of the second vehicle detection unit 102 is equal to or less than the threshold, the detection control unit 103 controls the first vehicle detection unit 101 is controlled to detect another vehicle 2, and when the certainty of the first vehicle detection unit 101 is equal to or less than the threshold and the certainty of the second vehicle detection unit 102 exceeds the threshold, the second vehicle detection Control is performed to cause the unit 102 to detect the other vehicle 2 . The detection control unit 103 creates a circle CI (Fig. 9). Here, the combined area is a section for switching tracking of the other vehicle 2 approaching from a distance from the first vehicle detection unit 101 to the second vehicle detection unit 102 . FIG. 9 is an explanatory diagram showing a state in which detection results of the first vehicle detection unit and the second vehicle detection unit are equal. As shown in FIG. 10, the reliability (=detection reliability) of the detection result by the first vehicle detection unit 101 gradually decreases. Conversely, as shown in FIG. 10, the degree of certainty (=detection certainty) of the detection result by the second vehicle detection unit 102 increases. Then, in the vicinity of the point where the line is drawn in FIG. 9, the reliability of both detection results becomes equal. In this section, the position of the approaching other vehicle 2 is determined based on the detection results of both of them, for example, by performing weighted addition according to the degree of certainty.

検知制御部103は、第1の車両検知部101の検知確信度が0になったか否かを判定する。第1の車両検知部101の検知確信度が0になった場合、第2の車両検知部102のみで他車両2が検知される。 The detection control unit 103 determines whether or not the detection reliability of the first vehicle detection unit 101 has become zero. When the detection reliability of the first vehicle detection unit 101 becomes 0, the other vehicle 2 is detected only by the second vehicle detection unit 102 .

(ステップS18)
ステップS17で第1の車両検知部101の検知確信度が0になった場合(ステップS17におけるYES)、俯瞰画像BI(t-Δt)と俯瞰画像BI(t)との間における差分を利用して、第2の車両検知部102は他車両2を検知する。検知制御部103は、ステップS16でエッジ候補判定部104が算出した他車両2の位置を新規登録する。
(Step S18)
When the detection certainty of the first vehicle detection unit 101 becomes 0 in step S17 (YES in step S17), the difference between the bird's-eye view image BI(t−Δt) and the bird's-eye view image BI(t) is used. Then, the second vehicle detection unit 102 detects the other vehicle 2 . The detection control unit 103 newly registers the position of the other vehicle 2 calculated by the edge candidate determination unit 104 in step S16.

(ステップS19)
検知制御部103は、ステップS18で位置が新規登録された他車両2を追跡する。この追跡は、新規に登録された位置から例えば8m程度他車両2が進むまで行われる。
(Step S19)
The detection control unit 103 tracks the other vehicle 2 whose position is newly registered in step S18. This tracking is performed until the other vehicle 2 advances, for example, about 8m from the newly registered position.

(ステップS20)
一方、ステップS17で他車両2が円CI内に存在しない場合(ステップS17におけるNO)、検知制御部103は、第2の車両検知部102の検知処理による確信度fを算出する。図10は、確信度の一例を示す説明図である。
(Step S20)
On the other hand, when the other vehicle 2 does not exist within the circle CI in step S17 (NO in step S17), the detection control unit 103 calculates the certainty factor f by the detection processing of the second vehicle detection unit 102 . FIG. 10 is an explanatory diagram showing an example of certainty.

(ステップS21)
検知制御部103は、ステップS20で算出した確信度fが予め定められた閾値H(図10)を超えるか否かを判定する。確信度fが閾値Hを超える場合、処理はステップS18に移行する。一方、確信度fが閾値H以下である場合、処理はステップS22に移行する。
(Step S21)
The detection control unit 103 determines whether or not the certainty factor f calculated in step S20 exceeds a predetermined threshold value H (FIG. 10). If the certainty f exceeds the threshold H, the process proceeds to step S18. On the other hand, if the certainty f is equal to or less than the threshold H, the process proceeds to step S22.

(ステップS22)
検知制御部103は、ステップS16の車両位置算出処理でエッジ候補判定部104が算出した他車両2の位置をノイズとして除去する。
(Step S22)
The detection control unit 103 removes the position of the other vehicle 2 calculated by the edge candidate determination unit 104 in the vehicle position calculation process of step S16 as noise.

その後、処理はメインルーチン(図4)に戻る。 After that, the process returns to the main routine (FIG. 4).

(車体差分登録処理の具体的な流れの説明)
次に、図6のステップS15に示した車体差分登録処理の具体的な流れについて、図11のフローチャートを用いて説明する。
(Description of the specific flow of vehicle body difference registration processing)
Next, a specific flow of the vehicle body difference registration process shown in step S15 of FIG. 6 will be described using the flowchart of FIG.

(ステップS31)
エッジ候補判定部104は、右側方カメラ20Rの位置を中心として等角度おきに差分画像DPを走査し、右側方カメラ20Rから放射方向に沿って第1所定数を超える画素が並んでいるか否かを判定する。ここで、第1所定数とは、他車両をそれ以外の物体と区別するために予め設定された値であり、例えば、例えば7個~8個に設定されることが好ましい。
(Step S31)
The edge candidate determination unit 104 scans the difference image DP at equal angular intervals centering on the position of the right camera 20R, and determines whether pixels exceeding a first predetermined number are arranged along the radial direction from the right camera 20R. judge. Here, the first predetermined number is a preset value for distinguishing other vehicles from other objects, and is preferably set to 7 to 8, for example.

ステップS31で第1所定数を超える画素が並んでいる場合(ステップS31におけるYES)、放射方向に並んだ画素が鉛直エッジと判断されて他車両2と重なったとみなされ、処理はステップS32に移行する。このとき、図8に示すように、右側方カメラ20Rを中心として複数の方位に直線(放射線)が引かれ、他車両2と重なった放射線との交点がマークされる。 If pixels exceeding the first predetermined number are lined up in step S31 (YES in step S31), the pixels lined up in the radial direction are determined to be a vertical edge and overlapped with the other vehicle 2, and the process proceeds to step S32. do. At this time, as shown in FIG. 8, straight lines (radiation lines) are drawn in a plurality of azimuths centering on the right side camera 20R, and the intersections of the lines overlapped with the other vehicle 2 are marked.

一方、ステップS31で第1所定数以下の画素が並んでいる場合(ステップS31におけるNO)、放射方向に並んだ画素はノイズと判断され、ステップS35で除去される。 On the other hand, if the first predetermined number or less of pixels are aligned in step S31 (NO in step S31), the pixels aligned in the radial direction are determined to be noise and removed in step S35.

(ステップS32)
エッジ候補判定部104は、右側方カメラ20Rの位置を中心として等角度おきに差分画像DPを走査し、右側方カメラ20Rから放射方向に沿って少なくとも1つの画素が存在するか否かを判定する。放射線RLによって分割された立体物領域の数が図8に示すように例えば6である場合、エッジ候補判定部104は、ステップS32に相当する処理を、立体物領域の数(=6)に等しい回数だけ反復して実行する。
(Step S32)
The edge candidate determination unit 104 scans the difference image DP at equal angular intervals around the position of the right camera 20R, and determines whether or not there is at least one pixel along the radial direction from the right camera 20R. . If the number of three-dimensional object regions divided by the radiation RL is, for example, six as shown in FIG. Execute the number of iterations.

少なくとも1つの画素が存在する場合(ステップS32におけるYES)、処理はステップ33に移行する。全く画素が存在しない場合(ステップS32におけるNO)、ステップS31で判断された鉛直エッジはノイズと判断され、ステップS35で除去される。 If at least one pixel exists (YES in step S32), the process proceeds to step S33. If no pixel exists (NO in step S32), the vertical edge determined in step S31 is determined as noise and removed in step S35.

(ステップS33)
エッジ候補判定部104は、右側方カメラ20Rから放射方向に沿って第2所定数を超える画素が並んでいるか否かを判定する。ここで、第2所定数とは、上述した第1所定数同様、他車両をそれ以外の物体と区別するために予め設定された値であり、例えば、例えば7個~8個に設定されることが好ましい。
(Step S33)
The edge candidate determination unit 104 determines whether pixels exceeding a second predetermined number are arranged along the radial direction from the right side camera 20R. Here, the second predetermined number is, like the first predetermined number described above, a preset value for distinguishing other vehicles from other objects, and is set, for example, to 7 to 8. is preferred.

ステップS33で第2所定数を超える画素が並んでいる場合(ステップS33におけるYES)、放射方向に並んだ画素を鉛直エッジと判断し、処理はステップS34に移行する。一方、ステップS33で第2所定数以下の画素が並んでいる場合(ステップS33におけるNO)、処理はステップS36に移行する。 If pixels exceeding the second predetermined number are arranged in step S33 (YES in step S33), the pixels arranged in the radial direction are determined as a vertical edge, and the process proceeds to step S34. On the other hand, if the number of pixels equal to or less than the second predetermined number are lined up in step S33 (NO in step S33), the process proceeds to step S36.

(ステップS34)
エッジ候補判定部104は、ステップS31で第1所定数を超える画素であると判断された鉛直エッジと、ステップS33で第2所定数を超える画素であると判断された鉛直エッジとを記憶部106に記憶する。
(Step S34)
The edge candidate determination unit 104 stores the vertical edges determined to have pixels exceeding the first predetermined number in step S31 and the vertical edges determined to have pixels exceeding the second predetermined number in step S33 to the storage unit 106. memorize to

(ステップS36)
エッジ候補判定部104は、ステップS34の2つの鉛直エッジに挟まれた画素で構成された領域を車体エッジとして記憶部106に記憶する。
(Step S36)
The edge candidate determination unit 104 stores in the storage unit 106 the region formed by the pixels sandwiched between the two vertical edges in step S34 as the vehicle body edge.

その後、処理はメインルーチン(図6)に戻る。 After that, the process returns to the main routine (FIG. 6).

(車両位置算出処理の具体的な流れの説明)
次に、図6のステップS16に示した車両位置算出処理の具体的な流れについて、図12のフローチャートを用いて説明する。
(Explanation of specific flow of vehicle position calculation processing)
Next, a specific flow of the vehicle position calculation process shown in step S16 of FIG. 6 will be described using the flowchart of FIG.

(ステップS41)
エッジ判定部105は、所定角度内において鉛直エッジを走査して、鉛直エッジが存在するか否かを判定する。ここで、所定角度とは、他車両とそれ以外の物体とを区別するために予め設定された値であり、例えば30度に設定されることが好ましい。
(Step S41)
The edge determination unit 105 scans a vertical edge within a predetermined angle and determines whether or not there is a vertical edge. Here, the predetermined angle is a preset value for distinguishing other vehicles from other objects, and is preferably set to 30 degrees, for example.

ステップS41で所定角度内に鉛直エッジが存在する場合(ステップS41におけるYES)、処理はステップS42に移行する。一方、ステップS41で所定角度内に鉛直エッジが存在しない場合(ステップS41におけるNO)、図11に示すステップS34で記憶部106に記憶された鉛直エッジ及び図11に示すステップS36で記憶部106に記憶された車体エッジがステップS52でノイズとして除去される。 If the vertical edge exists within the predetermined angle in step S41 (YES in step S41), the process proceeds to step S42. On the other hand, if there is no vertical edge within the predetermined angle in step S41 (NO in step S41), the vertical edge stored in storage unit 106 in step S34 shown in FIG. The stored vehicle body edges are removed as noise in step S52.

(ステップS42)
エッジ判定部105は、所定角度内に少なくとも2つの鉛直エッジが存在するか否かを判定する。2つの鉛直エッジが存在しない場合(ステップS42におけるNO)、処理はステップS43に移行する。一方、2つの鉛直エッジが存在する場合(ステップS42におけるYES)、処理は、ステップS53で鉛直エッジが除去された後、ステップS52に移行する。
(Step S42)
Edge determination unit 105 determines whether or not at least two vertical edges exist within a predetermined angle. If two vertical edges do not exist (NO in step S42), the process proceeds to step S43. On the other hand, if two vertical edges exist (YES in step S42), the process proceeds to step S52 after the vertical edges are removed in step S53.

(ステップS43)
エッジ判定部105は、所定角度内に車体エッジが含まれるか否かを判定する。車体エッジが含まれない場合(ステップS43におけるNO)、処理はステップS44に移行する。一方、車体エッジが含まれる場合(ステップS43におけるYES)、処理はステップS47に移行する。
(Step S43)
The edge determination unit 105 determines whether a vehicle body edge is included within a predetermined angle. If the vehicle body edge is not included (NO in step S43), the process proceeds to step S44. On the other hand, if the vehicle body edge is included (YES in step S43), the process proceeds to step S47.

(ステップS44)
エッジ判定部105は、所定角度内を例えば反時計まわりの方向に移動しながら放射線を走査する。
(Step S44)
The edge determination unit 105 scans the radiation while moving, for example, counterclockwise within a predetermined angle.

(ステップS45)
エッジ判定部105は、放射線の走査が完了したか否かを判定する。放射線の走査が完了した場合(ステップS45におけるYES)、処理はステップS52に移行する。一方、放射線の走査が未完了の場合(ステップS45におけるNO)、処理はステップS46に移行する。
(ステップS46)
エッジ判定部105は、放射線上に車体エッジが存在するか否かを判定する。車体エッジが存在する場合(ステップS46におけるYES)、処理はステップS43に移行する。一方、車体エッジが存在しない場合(ステップS46におけるNO)、処理はステップS52に移行する。
(Step S45)
The edge determination unit 105 determines whether scanning of radiation has been completed. If the radiation scanning is completed (YES in step S45), the process proceeds to step S52. On the other hand, if the radiation scanning has not been completed (NO in step S45), the process proceeds to step S46.
(Step S46)
The edge determination unit 105 determines whether or not a vehicle body edge exists on the radial line. If a vehicle body edge exists (YES in step S46), the process proceeds to step S43. On the other hand, if the vehicle body edge does not exist (NO in step S46), the process proceeds to step S52.

(ステップS47)
エッジ判定部105は、車体エッジをグループ内に正式登録する。この車体エッジのグルーピングには、車体エッジの位置情報を用いて、互いに近接している車体エッジを同じグループに分類する方法がある。また、車体エッジの特性、すなわち、車体エッジの方向又は強度に基づいて、車体エッジをグループ分けする方法がある。また、車体エッジの抽出対象として指定された幾何学図形に対するマッチングの度合いによって、車体エッジをグループ分けすることもできる。
(Step S47)
The edge determination unit 105 officially registers the vehicle body edge within the group. This grouping of vehicle body edges includes a method of classifying vehicle body edges that are close to each other into the same group using the position information of the vehicle body edges. There is also a method of grouping the body edges based on the characteristics of the body edges, ie the direction or strength of the body edges. Also, the vehicle body edges can be grouped according to the degree of matching with the geometric figure designated as the object of extraction of the vehicle body edges.

(ステップS48)
エッジ判定部105は、周知の手法を用いて、他車両2の車長を算出する。車長とは、例えば、車体エッジのうち鉛直エッジに最も近い最近隣エッジの先頭部(図13)同士を最短距離で結んだ線の長さのことをいう。
(Step S48)
The edge determination unit 105 calculates the vehicle length of the other vehicle 2 using a well-known method. The vehicle length is, for example, the length of the shortest line connecting the tops of the closest edges (FIG. 13) of the vehicle body edges that are closest to the vertical edge.

(ステップS49)
エッジ判定部105は、ステップS48で算出した車長が予め定められた閾値を超えるか否かを判定する。車長が閾値を超える場合(ステップS49におけるYES)、処理はステップS50に移行する。一方、車長が閾値以下である場合(ステップS49におけるNO)、処理はステップS51に移行する。
(Step S49)
The edge determination unit 105 determines whether or not the vehicle length calculated in step S48 exceeds a predetermined threshold. If the vehicle length exceeds the threshold (YES in step S49), the process proceeds to step S50. On the other hand, if the vehicle length is equal to or less than the threshold (NO in step S49), the process proceeds to step S51.

(ステップS50)
エッジ判定部105は、例えば、互いに近接している車体エッジを同じグループに分類して記憶部106に記憶する。具体的に、エッジ判定部105は、車体エッジ同士の距離を比較し、距離が所定範囲内にある車体エッジをグループ化する。
(Step S50)
For example, the edge determination unit 105 classifies vehicle edges that are close to each other into the same group and stores them in the storage unit 106 . Specifically, the edge determination unit 105 compares the distances between the vehicle body edges, and groups the vehicle body edges whose distances are within a predetermined range.

(ステップS51)
エッジ判定部105は、ステップS47でグループ内に正式登録した車体エッジを削除する。
(Step S51)
The edge determination unit 105 deletes the vehicle body edge formally registered in the group in step S47.

(ステップS52)
ステップS46で車体エッジが存在しないと判断された場合(ステップS46におけるNO)や、ステップS50の処理又はステップS51の処理が終了した場合には、エッジ判定部105は、記憶部106に記憶されている各グループに属する車両エッジの中心点を算出する。具体的に、エッジ判定部105は、例えば移動平均法又は指数平滑法を用いて、各車両エッジの長さ方向の中心点を算出する。エッジ判定部105は、その算出した車両エッジの中心点を他車両2の中心とみなす。
(Step S52)
When it is determined in step S46 that the vehicle body edge does not exist (NO in step S46), or when the process of step S50 or the process of step S51 ends, the edge determination unit 105 is stored in the storage unit 106. Calculate the center point of the vehicle edge belonging to each group. Specifically, the edge determination unit 105 calculates the center point of each vehicle edge in the longitudinal direction using, for example, a moving average method or an exponential smoothing method. The edge determination unit 105 regards the calculated center point of the vehicle edge as the center of the other vehicle 2 .

その後、処理はメインルーチン(図6)に戻る。 After that, the process returns to the main routine (FIG. 6).

上述した実施例1では、検知制御部103は、第1の車両検知部101の確信度が予め定められた閾値を超え、且つ、第2の車両検知部102の確信度が閾値以下となるとき、第1の車両検知部101に他車両2を検知させる制御を行い、第1の車両検知部101の確信度が閾値以下で、且つ、第2の車両検知部102の確信度が閾値を超えるとき、第2の車両検知部102に他車両2を検知させる制御を行う。 In the above-described first embodiment, the detection control unit 103 detects when the certainty of the first vehicle detection unit 101 exceeds a predetermined threshold and the certainty of the second vehicle detection unit 102 becomes equal to or less than the threshold. , the first vehicle detection unit 101 is controlled to detect the other vehicle 2, the confidence of the first vehicle detection unit 101 is equal to or less than the threshold, and the confidence of the second vehicle detection unit 102 exceeds the threshold At this time, control is performed to cause the second vehicle detection unit 102 to detect the other vehicle 2 .

上述した実施例1では、自車両1から他車両2までの距離が所定距離を超える遠方に他車両2が存在する場合には、第1の車両検知部101によるパターンマッチング法を用いた他車両2の検知が行われる。自車両1から他車両2までの距離が所定距離以下となる近辺に他車両2が存在する場合には、俯瞰画像の視界と実際にカメラ20が撮像した画像の視界とが異なることを利用して、俯瞰画像の差分を用いて他車両2が検知される。こうして、第1の車両検知部101によるパターンマッチング法では検知できない他車両2が第2の車両検知部102により検知される。これにより、カメラ20で撮像した画像に基づく俯瞰画像を利用して、俯瞰画像の差分をとることで、動きのない背景の部分を無くすことができる。すなわち、俯瞰画像を利用することで、動きのない背景部分を処理する必要がない。その結果、処理負荷を軽減することができる。 In the first embodiment described above, when the distance from the own vehicle 1 to the other vehicle 2 exceeds a predetermined distance, the other vehicle 2 is detected by the first vehicle detection unit 101 using the pattern matching method. 2 detections are made. When the other vehicle 2 exists in the vicinity where the distance from the own vehicle 1 to the other vehicle 2 is equal to or less than a predetermined distance, the difference between the field of view of the bird's-eye view image and the field of view of the image actually captured by the camera 20 is utilized. Then, the other vehicle 2 is detected using the difference between the bird's-eye view images. Thus, the other vehicle 2 that cannot be detected by the pattern matching method by the first vehicle detection unit 101 is detected by the second vehicle detection unit 102 . Accordingly, by using the bird's-eye view image based on the image captured by the camera 20 and taking the difference of the bird's-eye view image, it is possible to eliminate the motionless background portion. That is, by using the bird's-eye view image, there is no need to process the static background portion. As a result, the processing load can be reduced.

以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the embodiments are merely illustrative of the present invention, and the present invention is not limited only to the configurations of the embodiments. It goes without saying that even if there is a change in design within the scope of the gist of the invention, it is included in the present invention.

なお、上述した実施例1では、車両位置算出処理において所定角度内の鉛直エッジを走査する際に、所定角度を30度に設定する例を説明した。本発明はこの態様に限らず、例えば、他車両よりも小さい歩行者や自転車を他車両と区別するために、所定角度を3度に設定してもよい。これにより、エッジ判定部105は、所定角度が3度以下となる範囲において、複数個のエッジが存在する場合、このエッジは歩行者や自転車から抽出されたエッジであると判定することができる。 In the first embodiment described above, an example in which the predetermined angle is set to 30 degrees when scanning the vertical edge within the predetermined angle in the vehicle position calculation process has been described. The present invention is not limited to this aspect, and for example, the predetermined angle may be set to 3 degrees in order to distinguish pedestrians and bicycles smaller than other vehicles from other vehicles. As a result, when a plurality of edges exist within a range where the predetermined angle is 3 degrees or less, the edge determination unit 105 can determine that these edges are edges extracted from a pedestrian or a bicycle.

なお、上述した実施例1では、車両検知装置100を左側通行の道路に適用する例を説明した。本発明はこの態様に限らず、例えば、車両検知装置100を右側通行の道路に適用してもよい。 In the first embodiment described above, an example in which the vehicle detection device 100 is applied to a left-hand traffic road has been described. The present invention is not limited to this aspect, and for example, the vehicle detection device 100 may be applied to a right-hand traffic road.

なお、上述した実施例1では、第2の車両検知部102は、俯瞰画像BI(t)から俯瞰画像BI(t-Δt)を減算する減算処理を施して差分画像DPを生成する例を説明した。本発明はこの態様に限らず、例えば、第2の車両検知部102は、俯瞰画像BI(t-Δt)から俯瞰画像BI(t)を減算する減算処理を施して差分画像DPを生成してもよい。 In the first embodiment described above, the second vehicle detection unit 102 performs a subtraction process of subtracting the bird's-eye view image BI(t-Δt) from the bird's-eye view image BI(t) to generate the difference image DP. did. The present invention is not limited to this aspect. For example, the second vehicle detection unit 102 performs a subtraction process of subtracting the bird's-eye view image BI(t) from the bird's-eye view image BI(t−Δt) to generate the difference image DP. good too.

なお、上述した実施例1では、自車両1が縦列駐車されて停車中の状態から発進する場面に車両検知装置100を適用する例を示した。本発明はこの態様に限らず、図13に示すように、例えば、自車両1が並列駐車されて停車中の状態から発進する場面に車両検知装置100を適用してもよい(図14)。この場合、前方カメラ20F(撮像部)が異なる時刻に撮像して得られた複数の画像の夫々に対して、視点変換した複数の俯瞰画像間の相関に基づいて、他車両2の検知が行われる。この場面における車両検知装置100の動作条件としては、自車両1が例えば時速2km以下の低速度で白抜きの矢印F1で示す方向に発進する状態を想定している。この場面では、自車両1の右側方から自車両1に向けて白抜きの矢印F2で示す方向に接近してくる他車両の速度は例えば時速25km以下を想定している。 In addition, in Example 1 mentioned above, the example which applied the vehicle detection apparatus 100 to the scene which the own vehicle 1 parked in parallel and started from the state in which it stopped was shown. The present invention is not limited to this aspect, and as shown in FIG. 13, for example, the vehicle detection device 100 may be applied to a scene in which the own vehicle 1 is parked in parallel and started from a stopped state (FIG. 14). In this case, the detection of the other vehicle 2 is performed based on the correlation between the plurality of bird's-eye view images obtained by the viewpoint conversion for each of the plurality of images captured by the front camera 20F (imaging unit) at different times. will be As an operating condition of the vehicle detection device 100 in this scene, it is assumed that the own vehicle 1 starts at a low speed of 2 km/h or less in the direction indicated by the white arrow F1. In this scene, it is assumed that the speed of another vehicle approaching the vehicle 1 from the right side of the vehicle 1 in the direction indicated by the white arrow F2 is, for example, 25 km/h or less.

1・・・自車両
2・・・他車両
20・・・カメラ(撮像部)
20F・・・前方カメラ(撮像部)
20L・・・左側方カメラ(撮像部)
20R・・・右側方カメラ(撮像部)
100・・・車両検知装置
101・・・第1の車両検知部
102・・・第2の車両検知部
103・・・検知制御部
BI、BI(t-Δt)、BI(t)・・・俯瞰画像
DP・・・差分画像
I、I(t-Δt)、I(t)・・・画像
RL・・・放射線
1 Own vehicle 2 Other vehicle 20 Camera (imaging unit)
20F: front camera (imaging unit)
20L: Left side camera (imaging unit)
20R: right side camera (imaging unit)
DESCRIPTION OF SYMBOLS 100... Vehicle detection apparatus 101... 1st vehicle detection part 102... 2nd vehicle detection part 103... Detection control part BI, BI (t-deltat), BI (t)... Bird's-eye view image DP... Difference images I, I(t-Δt), I(t)... Image RL... Radiation

Claims (1)

路面上を走行する自車両の周辺を撮像する撮像部により前記周辺を撮像して得られた画像に対して、他車両の特徴に基づくパターン認識を行い、前記他車両を検知する第1の車両検知部と、
前記撮像部が異なる時刻に撮像して得られた複数の画像の夫々に対して、前記自車両の上方の仮想視点から前記他車両を俯瞰するように視点変換した複数の俯瞰画像間の相関に基づいて、前記他車両を検知する第2の車両検知部と、
前記第1の車両検知部の確信度が予め定められた閾値を超え、且つ、前記第2の車両検知部の確信度が前記閾値以下となるとき、前記第1の車両検知部に前記他車両を検知させる制御を行い、前記第1の車両検知部の確信度が前記閾値以下で、且つ、前記第2の車両検知部の確信度が前記閾値を超えるとき、前記第2の車両検知部に前記他車両を検知させる制御を行う検知制御部と、を備え、
前記第2の車両検知部は、前記複数の俯瞰画像間の差分画像を前記撮像部から放射方向に延びる放射線で前記撮像部の位置を中心として所定の角度おきに分割した複数の立体物領域の中から、前記他車両の前記路面に対する鉛直性を評価し、その評価結果に基づいて、前記他車両を検知し、
前記差分画像の中に前記放射方向に沿って複数のエッジが存在している場合には、前記複数のエッジは前記他車両から抽出されたエッジ候補であると判定するエッジ候補判定部を備え、
前記第2の車両検知部は、前記エッジ候補判定部の判定結果に基づいて、前記他車両を検知し、
前記エッジ候補判定部で前記エッジ候補が複数個判定されたときは、前記撮像部を中心とした複数の前記エッジ候補間の角度が所定角度以上である場合に、複数の前記エッジ候補は前記他車両から抽出されたエッジであると判定するエッジ判定部を備え、
前記第2の車両検知部は、前記エッジ判定部の判定結果に基づいて、前記他車両を検知することを特徴とする車両検知装置。
A first vehicle that detects the other vehicle by performing pattern recognition based on characteristics of other vehicles on an image obtained by imaging the surroundings of the own vehicle running on a road surface by an imaging unit that captures the surroundings of the vehicle. a detection unit;
For each of a plurality of images captured by the imaging unit at different times, correlation between a plurality of bird's-eye images obtained by viewpoint conversion so as to overlook the other vehicle from a virtual viewpoint above the own vehicle. a second vehicle detection unit that detects the other vehicle based on
When the certainty of the first vehicle detection unit exceeds a predetermined threshold and the certainty of the second vehicle detection unit is equal to or less than the threshold, the first vehicle detection unit detects the other vehicle. is detected, and when the certainty of the first vehicle detection unit is equal to or less than the threshold and the certainty of the second vehicle detection unit exceeds the threshold, the second vehicle detection unit A detection control unit that performs control to detect the other vehicle ,
The second vehicle detection unit divides the difference image between the plurality of bird's-eye view images into a plurality of three-dimensional object regions at intervals of a predetermined angle around the position of the imaging unit with radiation extending in a radial direction from the imaging unit. Evaluating the verticality of the other vehicle with respect to the road surface from among them, detecting the other vehicle based on the evaluation result,
an edge candidate determination unit for determining that, when a plurality of edges are present in the differential image along the radial direction, the plurality of edges are edge candidates extracted from the other vehicle;
The second vehicle detection unit detects the other vehicle based on the determination result of the edge candidate determination unit,
When a plurality of the edge candidates are determined by the edge candidate determination unit, the plurality of edge candidates are determined to be the other edge candidates if an angle between the plurality of edge candidates centered on the imaging unit is equal to or greater than a predetermined angle. An edge determination unit that determines that the edge is extracted from the vehicle,
The vehicle detection device , wherein the second vehicle detection unit detects the other vehicle based on the determination result of the edge determination unit .
JP2018141214A 2018-07-27 2018-07-27 vehicle detector Active JP7193942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018141214A JP7193942B2 (en) 2018-07-27 2018-07-27 vehicle detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141214A JP7193942B2 (en) 2018-07-27 2018-07-27 vehicle detector

Publications (2)

Publication Number Publication Date
JP2020017184A JP2020017184A (en) 2020-01-30
JP7193942B2 true JP7193942B2 (en) 2022-12-21

Family

ID=69580538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141214A Active JP7193942B2 (en) 2018-07-27 2018-07-27 vehicle detector

Country Status (1)

Country Link
JP (1) JP7193942B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015032082A (en) 2013-08-01 2015-02-16 日産自動車株式会社 Vehicle detection device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015032082A (en) 2013-08-01 2015-02-16 日産自動車株式会社 Vehicle detection device

Also Published As

Publication number Publication date
JP2020017184A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
CN109478324B (en) Image processing apparatus and external recognition apparatus
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
JP6246014B2 (en) Exterior recognition system, vehicle, and camera dirt detection method
JP6511283B2 (en) Object detection device
JP4420011B2 (en) Object detection device
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
JP4246766B2 (en) Method and apparatus for locating and tracking an object from a vehicle
US8160300B2 (en) Pedestrian detecting apparatus
JP4951481B2 (en) Road marking recognition device
JP2018060422A (en) Object detection device
WO2019065970A1 (en) Vehicle exterior recognition device
WO2017208601A1 (en) Image processing device and external recognition device
JP2002334330A (en) Vehicle recognition device
KR20170055738A (en) Apparatus and method for recognize driving lane on image
JP6496619B2 (en) Parking assistance device for vehicles
JP7193942B2 (en) vehicle detector
JP6200780B2 (en) Lane recognition determination device
JP6253175B2 (en) Vehicle external environment recognition device
US11417115B2 (en) Obstacle recognition device
JP7323716B2 (en) Image processing device and image processing method
CN111914610B (en) Three-dimensional object detection device and three-dimensional object detection method
JP4471881B2 (en) Obstacle recognition device and obstacle recognition method
JP2018018215A (en) Object feature point detector
JPH08147447A (en) Vehicle recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221209

R150 Certificate of patent or registration of utility model

Ref document number: 7193942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150