JP7193942B2 - vehicle detector - Google Patents
vehicle detector Download PDFInfo
- Publication number
- JP7193942B2 JP7193942B2 JP2018141214A JP2018141214A JP7193942B2 JP 7193942 B2 JP7193942 B2 JP 7193942B2 JP 2018141214 A JP2018141214 A JP 2018141214A JP 2018141214 A JP2018141214 A JP 2018141214A JP 7193942 B2 JP7193942 B2 JP 7193942B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- detection unit
- unit
- vehicle detection
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車両検知装置に関する。 The present invention relates to vehicle detection devices.
従来、自車両に接近する車両を検知する技術が求められている。そのような背景から、接近車両を検知する技術としてパターン認識が適用されることがある。このパターン認識の一例には、接近車両を正面から見た画像を特徴として予め記憶し、車載カメラで撮像されたカメラ画像の中に特徴と一致する部分が存在するか否かの判断を行うものがある。 Conventionally, there has been a demand for a technique for detecting vehicles approaching one's own vehicle. Against this background, pattern recognition is sometimes applied as a technique for detecting approaching vehicles. As an example of this pattern recognition, an image of an approaching vehicle viewed from the front is stored in advance as a feature, and it is determined whether or not there is a part that matches the feature in the camera image captured by the vehicle-mounted camera. There is
上述したパターン認識では、接近車両を正面から見た画像のみを用いて、接近車両か否かの認識が行われる。したがって、接近車両の向きが変わると、接近車両を検知できなくなることがある。 In the pattern recognition described above, recognition of whether or not the approaching vehicle is an approaching vehicle is performed using only an image of the approaching vehicle viewed from the front. Therefore, when the orientation of the approaching vehicle changes, it may not be possible to detect the approaching vehicle.
一方、パターン認識に別の画像処理を組み合わせて、接近車両を認識する技術が提案されている(例えば、特許文献1参照)。この技術では、カメラ画像の中に、背景に対する接近車両の動きが大きい第一領域と、背景に対する接近車両の動きが小さい第二領域とが設定される。第一領域では、エッジ等の特徴点の移動に基づいて接近車両が検知される。第二領域では、パターン認識で接近車両が検知される。 On the other hand, there has been proposed a technique of recognizing an approaching vehicle by combining pattern recognition with another image processing (see, for example, Patent Document 1). In this technique, a first area where the movement of the approaching vehicle is large relative to the background and a second area where the movement of the approaching vehicle is small relative to the background are set in the camera image. In the first area, an approaching vehicle is detected based on movement of feature points such as edges. In the second area, an approaching vehicle is detected by pattern recognition.
特許文献1に開示された技術では、特徴点が時間の経過とともに移動することを利用して、接近車両が検知される。接近車両を正しく検知するには、接近車両の特徴点と、背景の特徴点とを区別して分類することが望ましい。そうすると、接近車両の特徴点のみならず、動きのない背景の特徴点もカメラ画像の中から抽出せざるを得ない。したがって、特徴点の数が増加し、システムに要求される処理負荷が高くなる問題があった。
In the technique disclosed in
本発明は、上記課題に鑑みてなされたもので、車載カメラで撮像した画像に基づく俯瞰画像を利用することで、処理負荷を軽減することのできる車両検知装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a vehicle detection device capable of reducing the processing load by using a bird's-eye view image based on an image captured by an in-vehicle camera.
本発明に係る車両検知装置は、路面上を走行する自車両の周辺を撮像する撮像部により前記周辺を撮像して得られた画像に対して、他車両の特徴に基づくパターン認識を行い、前記他車両を検知する第1の車両検知部と、前記撮像部が異なる時刻に撮像して得られた複数の画像の夫々に対して、前記自車両の上方の仮想視点から前記他車両を俯瞰するように視点変換した複数の俯瞰画像間の相関に基づいて、前記他車両を検知する第2の車両検知部と、前記第1の車両検知部の確信度が予め定められた閾値を超え、且つ、前記第2の車両検知部の確信度が前記閾値以下となるとき、前記第1の車両検知部に前記他車両を検知させる制御を行い、前記第1の車両検知部の確信度が前記閾値以下で、且つ、前記第2の車両検知部の確信度が前記閾値を超えるとき、前記第2の車両検知部に前記他車両を検知させる制御を行う検知制御部とを備えることを特徴とする。 The vehicle detection device according to the present invention performs pattern recognition based on the characteristics of other vehicles on an image obtained by imaging the surroundings of the own vehicle traveling on the road surface with an imaging unit that images the surroundings of the vehicle. A first vehicle detection unit for detecting the other vehicle and a plurality of images captured at different times by the image capturing unit are captured, and the other vehicle is viewed from a virtual viewpoint above the own vehicle. Based on the correlation between a plurality of bird's-eye view images converted from the viewpoint in the above manner, the confidence levels of the second vehicle detection unit for detecting the other vehicle and the first vehicle detection unit exceed a predetermined threshold, and and controlling the first vehicle detection unit to detect the other vehicle when the confidence of the second vehicle detection unit is equal to or less than the threshold, and the confidence of the first vehicle detection unit is the threshold and a detection control unit that controls the second vehicle detection unit to detect the other vehicle when the reliability of the second vehicle detection unit exceeds the threshold. .
この発明によれば、車載カメラで撮像した画像に基づく俯瞰画像を利用することで、システムに要求される処理負荷を軽減することができる。 According to this invention, it is possible to reduce the processing load required of the system by using the bird's-eye view image based on the image captured by the vehicle-mounted camera.
以下、本発明に係る車両検知装置の具体的な実施形態について、図面を参照して説明する。 Hereinafter, specific embodiments of a vehicle detection device according to the present invention will be described with reference to the drawings.
(実施例1の構成の説明)
図1は、実施例1の車両検知装置100を適用した運転支援システム10を構成するハードウェア要素を示すハードウェアブロック図である。まず、車両検知装置100を適用したシステム構成について図1を用いて説明する。
(Description of the configuration of the first embodiment)
FIG. 1 is a hardware block diagram showing hardware elements forming a
本実施例の運転支援システム10は、自車両1(図3)に実装される。運転支援システム10は、前方カメラ20F(撮像部)と、左側方カメラ20L(撮像部)と、右側方カメラ20R(撮像部)とを有する。なお以下、前方カメラ20F、左側方カメラ20L及び右側方カメラ20Rを特に区別して説明する必要がない場合、単にカメラ20という。
A
自車両1のフロントバンパやフロントグリルには、自車両1の前方に向けて前方カメラ20Fが搭載される。自車両1の左ドアミラーには、自車両1の左側方に向けて左側方カメラ20Lが搭載される。自車両1の右ドアミラーには、自車両1の右側方に向けて右側方カメラ20Rが搭載される。
A front camera 20</b>F is mounted on the front bumper and front grill of the
カメラ20には、広角の魚眼カメラを備えたカメラが採用される。魚眼カメラは広角の画像を取得するために、既知の歪み補正関数に基づいて、歪み補正を行う。カメラ20で撮像された画像は、車両検知装置100に出力される。
A camera equipped with a wide-angle fisheye camera is adopted as the camera 20 . A fisheye camera performs distortion correction based on a known distortion correction function in order to acquire a wide-angle image. An image captured by the camera 20 is output to the
運転支援システム10は、さらに、車両状態検出部30と、車速制御部40と、ディスプレイ制御部50と、音声出力制御部60と、測距センサ70と、車両検知装置100とを有する。
The
車両状態検出部30は、シフトレバーの状態、車輪速(車速)、駐車方式(並列駐車又は縦列駐車)などの車両状態を示す信号を車両検知装置100に出力する。
The vehicle
車速制御部40は、自車両1のエンジン(不図示)やブレーキ(不図示)を制御して、自車両1を加速させたり減速させたりする。
The vehicle
ディスプレイ制御部50は、第1の車両検知部101や第2の車両検知部102の検知結果をディスプレイ(不図示)に表示する制御を行う。 The display control unit 50 performs control to display the detection results of the first vehicle detection unit 101 and the second vehicle detection unit 102 on a display (not shown).
音声出力制御部60は、第1の車両検知部101や第2の車両検知部102の検知結果に基づいて、音声警報を出力する。
The voice
測距センサ70は、超音波センサやレーザレーダ等のセンサからなり、前方測距センサ70Fと、左側方測距センサ70Lと、右側方測距センサ70Rとで構成されている。測距センサ70のうち前方を向いている測距センサ70を前方測距センサ70Fという。測距センサ70のうち左側方を向いている測距センサ70を左側方測距センサ70Lという。測距センサ70のうち右側方を向いている測距センサ70を右側方測距センサ70Rという。なお以下、前方測距センサ70F、左側方測距センサ70L及び右側方測距センサ70Rを特に区別して説明する必要がない場合、単に測距センサ70という。
The ranging
自車両1の前部には、前方測距センサ70Fが搭載される。自車両1の左側部には、左側方測距センサ70Lが搭載される。自車両1の右側部には、右側方測距センサ70Rが搭載される。測距センサ70は、車両検知装置100からの指示に基づいて、自車両1の周辺に所定周波数の測定波を逐次照射する。測距センサ70は、その測定波の照射範囲内の物体に当たって反射した反射波を逐次受信する。
A forward ranging
(車両検知装置の概略構成)
図1は、本発明の一実施形態に係る車両検知装置100の概略構成を示す。以下、図1を用いて車両検知装置100の概略構成を説明する。
(Schematic configuration of vehicle detection device)
FIG. 1 shows a schematic configuration of a
車両検知装置100は、第1の車両検知部101と、第2の車両検知部102と、検知制御部103と、エッジ候補判定部104と、エッジ判定部105と、記憶部106とを備える。
車両検知装置100の内部には、例えば、周辺デバイスを含めたマイクロプロセッサ及びプログラム、必要な処理を実行するRAM(Random Access Memory)、ROM(Read Only Memory)、画像処理や信号処理を行う専用ASIC(Application Specific Integrated Circuit)等のモジュールが実装されている。
Inside the
第1の車両検知部101は、カメラ20により自車両1の周辺を撮像して得られた画像に対して、他車両2(図3)の特徴に基づくパターン認識を行い、他車両2を検知する。
The first vehicle detection unit 101 detects the
第2の車両検知部102は、カメラ20が異なる時刻に撮像して得られた複数の画像の夫々に対して、自車両1の上方の仮想視点から他車両2を俯瞰するように視点変換した複数の俯瞰画像間の相関に基づいて、他車両2を検知する。
The second vehicle detection unit 102 converts each of the plurality of images captured by the camera 20 at different times so that the
検知制御部103は、第1の車両検知部101の確信度が予め定められた閾値を超え、且つ、第2の車両検知部102の確信度が閾値以下となるとき、第1の車両検知部101に他車両2を検知させる制御を行い、第1の車両検知部101の確信度が閾値以下で、且つ、第2の車両検知部102の確信度が閾値を超えるとき、第2の車両検知部102に他車両2を検知させる制御を行う。
When the certainty of the first vehicle detection unit 101 exceeds a predetermined threshold and the certainty of the second vehicle detection unit 102 is equal to or less than the threshold, the
なお、エッジ候補判定部104、エッジ判定部105及び記憶部106の詳細は後述する。
Details of the edge
(車両検知装置100で行われる一連の処理の流れ)
次に、車両検知装置100で行われる一連の処理の流れを、図3に示す説明図と図4に示すフローチャートとを用いて説明する。図3は、車両検知装置100を左側通行の道路に適用する場面を示している。
(Flow of a series of processes performed by the vehicle detection device 100)
Next, the flow of a series of processes performed by the
一連の処理は、図3に示すように、自車両1の後方から自車両1に他車両2が接近してくる場面に車両検知装置100(図1)を適用したものである。
As shown in FIG. 3, a series of processing is performed by applying the vehicle detection device 100 (FIG. 1) to a scene in which another
この場面における車両検知装置100の動作条件としては、自車両1が縦列駐車されて停車中の状態から例えば時速2km以下の低速度で白抜きの矢印F1で示す方向に発進する状態を想定している。この場面では、自車両1の後方から自車両1に向けて白抜きの矢印F2で示す方向に接近してくる他車両の速度は例えば時速25km以下を想定している。
As the operation condition of the
検知制御部103は、自車両1から他車両2までの距離が所定距離を超えるとき、第1の車両検知部101に他車両2を検知させる制御とし、自車両1から他車両2までの距離が所定距離以下となるとき、第2の車両検知部102に他車両2を検知させる制御とする。
The
(第1の車両検知部101で行われる処理の説明)
まず、第1の車両検知部101で行われる処理について説明する。第1の車両検知部101は、他車両2のテンプレートと、対象画像に含まれる物体とが一致するか否かを判断する。例えば、第1の車両検知部101では、そのテンプレートと対象画像の特徴点を比較するパターンマッチング法が用いられる。パターンマッチング法に用いるテンプレートは、予め記憶部106に記憶されている。
(Description of processing performed by the first vehicle detection unit 101)
First, processing performed by the first vehicle detection unit 101 will be described. The first vehicle detection unit 101 determines whether or not the template of the
本実施例では、例えば、他車両2を正面から見た場合の特徴を、図2に示すように左右ライトとナンバープレートとフロントガラスとする(図2)。これらの特徴を含むテンプレートは、予め定義されて記憶部106に記憶されている。これにより、カメラ20が撮像した画像の中に、特徴と一致する部分が存在するか否かの判定が行われる。その判定の結果、特徴と一致する部分が存在する場合、他車両2が検知される。
In this embodiment, for example, the features when the
このように、第1の車両検知部101の検知動作は、他車両2を正面から見た場合の特徴を用いて行われる。したがって、他車両2の向きが正面向きから側面向きや背面向きに変わると、第1の車両検知部101は他車両2を正確に検知できない。だからといって、刻々と変化する他車両2の動きに応じてテンプレートを準備すると、記憶部106に記憶すべきテンプレートの情報量が増大する。
In this manner, the detection operation of the first vehicle detection unit 101 is performed using the characteristics of the
そこで、本実施例では、自車両1から他車両2までの距離が所定距離を超える遠方に他車両2が存在する場合のみ、第1の車両検知部101の検知動作を行う。そして、自車両1から他車両2までの距離が所定距離以下となる近辺に他車両2が存在する場合には、第2の車両検知部102の検知動作を行う。第2の車両検知部102では、俯瞰画像のフレーム間の差分を利用して、他車両2の検知が行われる。具体的に、フレーム間で静止物(背景)には差分が無いのに対して、他車両2には差分があることに着目して、他車両2の検知が行われる。
Therefore, in this embodiment, the detection operation of the first vehicle detection unit 101 is performed only when the
(第2の車両検知部102で行われる処理の説明)
この場面における第2の車両検知部102の検知領域は、第1の車両検知部101では他車両2の検知が困難とされる範囲に設定される。具体的に、第2の車両検知部102の検知領域は、自車両1の右側方に例えば二車線の幅寸法に相当する6mに設定されるとともに、自車両1の後方に例えば8m~15mに設定される。ここで、15mは、カメラで撮影した画像に基づいてパターンマッチング(第1の車両検知)による認識率が高くなる(90%以上)最長の検知距離を示し、ここからパターンマッチングによる車両検知が開始される。また、8mは、俯瞰差分画像による検知方法(第2の車両検知)の認識率が高くなる(約70%~85%)最長の検知距離を示し、ここから俯瞰差分画像のみによる車両検知が開始される。通常、1レーンの幅が3mくらいであるため、2レーン分(3m×2)の6mをカメラによる検知範囲(=カメラ設置位置からの距離)としている。
(Description of processing performed by the second vehicle detection unit 102)
The detection area of the second vehicle detection unit 102 in this scene is set to a range in which it is difficult for the first vehicle detection unit 101 to detect the
図4に示す一連の処理は、例えば、ドライバのスイッチ操作により車両検知処理の実行開始を指示する入力が車両検知装置100に送られたときに開始される。
The series of processes shown in FIG. 4 is started, for example, when an input instructing the start of execution of the vehicle detection process is sent to the
(ステップS1)
まず、第1の車両検知部101は、右側方カメラ20Rが異なる時刻(t-Δt),(t)に自車両1の直近の路面を含む右側方観測範囲を撮像して得られた画像I(t-Δt),I(t)を取得する。図5は、画像Iの一例を模式的に示す図である。各画像I(t-Δt),I(t)は記憶部106に記憶される。なお以下、画像I(t-Δt),I(t)を特に区別して説明する必要がない場合、単に画像Iという。
(Step S1)
First, the first vehicle detection unit 101 captures an image I Obtain (t−Δt), I(t). FIG. 5 is a diagram schematically showing an example of image I. As shown in FIG. Each image I(t−Δt) and I(t) is stored in
(ステップS2)
次に、第1の車両検知部101は、他車両2のテンプレートと、画像Iの中に存在する他車両2とが一致するか否かを検知する。両者が一致する場合、第1の車両検知部101において画像Iの中に他車両2が存在すると検知され、処理はステップS3に移行する。両者が一致しない場合、第1の車両検知部101において画像Iの中に他車両2が存在しないと検知され、車両検知装置100で行われる処理が終了する。
(Step S2)
Next, the first vehicle detection unit 101 detects whether or not the template of the
(ステップS3)
次に、検知制御部103は、第1の車両検知部101における検知処理結果を記憶部106に記憶する。
(Step S3)
Next, the
(ステップS4)
次に、第2の車両検知部102は、他車両2を検知する車両検知処理を行う。この車両検知処理の詳細な流れは後述する。
(Step S4)
Next, the second vehicle detection unit 102 performs vehicle detection processing for detecting the
(ステップS5)
次に、検知制御部103は、第2の車両検知部102における検知処理結果を記憶部106に記憶する。
(Step S5)
Next, the
(ステップS6)
次に、検知制御部103は、第1の車両検知部101における検知処理結果と第2の車両検知部102における検知処理結果とに基づいて、他車両2を検知する。
(Step S6)
Next, the
(車両検知処理の具体的な流れの説明)
次に、図4のステップS4に示した車両検知処理の具体的な流れについて、図6のフローチャートを用いて説明する。
(Description of specific flow of vehicle detection processing)
Next, a specific flow of the vehicle detection process shown in step S4 of FIG. 4 will be described using the flowchart of FIG.
(ステップS11)
まず、第2の車両検知部102は、画像I(t-Δt),I(t)の夫々に対して、自車両1の上方の仮想視点から他車両2を俯瞰するように視点変換し、俯瞰画像BI(t-Δt),BI(t)を生成する。なお以下、俯瞰画像BI(t-Δt),BI(t)を特に区別して説明する必要がない場合、単に俯瞰画像BIという。
(Step S11)
First, the second vehicle detection unit 102 converts each of the images I(t−Δt) and I(t) from a virtual viewpoint above the
図7は、俯瞰画像BIの一例を模式的に示す図である。図7に示すように、画像I(図5)は、車体の鉛直部分のエッジがカメラ20から放射状に広がるように写像変換される。俯瞰画像BIを利用すれば、他車両2の位置の検知が容易になる。また、他車両2以外に複数の車両が存在したとしても、各車両の区別が容易になる。
FIG. 7 is a diagram schematically showing an example of the overhead image BI. As shown in FIG. 7, the image I (FIG. 5) is mapped so that the edges of the vertical portion of the vehicle radiate from the camera 20 . Using the bird's-eye view image BI makes it easier to detect the position of the
(ステップS12)
第2の車両検知部102は、俯瞰画像BI(t-Δt)に映り込んだ静止物(背景)と、俯瞰画像BI(t)に映り込んだ静止物(背景)との位置合わせを行う。その位置合わせの後、第2の車両検知部102は、俯瞰画像BI(t)から俯瞰画像BI(t-Δt)を減算する減算処理を施して差分画像DPを生成する。
(Step S12)
The second vehicle detection unit 102 aligns the stationary object (background) reflected in the bird's-eye view image BI(t−Δt) with the stationary object (background) reflected in the bird's-eye view image BI(t). After the alignment, the second vehicle detection unit 102 performs a subtraction process of subtracting the bird's-eye view image BI(t−Δt) from the bird's-eye view image BI(t) to generate a difference image DP.
(ステップS13)
第2の車両検知部102は、右側方カメラ20Rから放射方向に延びる複数本の放射線RLを初期化する。初期化とは、ステップS14の車体差分登録処理を開始するために、複数本の放射線RLを消去することをいう。
(Step S13)
The second vehicle detection unit 102 initializes a plurality of rays RL radially extending from the
(ステップS14)
図8は車体差分登録処理を説明するための図である。第2の車両検知部102は、図8に示すように、差分画像DPを右側方カメラ20Rから放射方向に延びる複数本の放射線RLで右側方カメラ20Rの位置を中心として等角度(例えば、3度)おきに分割する。放射線RLは、差分画像DPの中に存在する他車両2の路面に対する鉛直性を示す指標となる。図8に示すように、俯瞰画像BIに含まれる他車両2は、6本の放射線RLによって6つの立体物領域に分割される。
(Step S14)
FIG. 8 is a diagram for explaining the vehicle body difference registration process. As shown in FIG. 8, the second vehicle detection unit 102 captures the differential image DP with a plurality of rays RL extending in the radial direction from the
(ステップS15)
エッジ候補判定部104は、車体差分登録処理を行う。この車体差分登録処理の詳細な流れは後述する。
(Step S15)
The edge
(ステップS16)
エッジ候補判定部104は、車両位置算出処理を行う。この車両位置算出処理の詳細な流れは後述する。
(Step S16)
The edge
(ステップS17)
検知制御部103は、第1の車両検知部101の確信度が予め定められた閾値を超え、且つ、第2の車両検知部102の確信度が閾値以下となるとき、第1の車両検知部101に他車両2を検知させる制御を行い、第1の車両検知部101の確信度が閾値以下で、且つ、第2の車両検知部102の確信度が閾値を超えるとき、第2の車両検知部102に他車両2を検知させる制御を行う。検知制御部103は、第1の車両検知部101の検知領域と第2の車両検知部102の検知領域とが重なる結合領域(図10)に位置する他車両2を中心とする円CI(図9)を描く。ここで、結合領域とは、遠方から接近してくる他車両2の追跡を第1の車両検知部101から第2の車両検知部102に切り替えていくための区間である。図9は、第1の車両検知部と第2の車両検知部の各検知結果が等しくなった状態を示す説明図である。図10に示すように、第1の車両検知部101による検知結果の確信度(=検知確信度)は徐々に下がっていく。逆に、図10に示すように、第2の車両検知部102による検知結果の確信度(=検知確信度)は上がっていく。そして、図9において線が引かれた地点付近で、両者の検知結果の確信度が等しくなる。この区間では、接近してくる他車両2を両者の検知結果に基づき、例えば、確信度による重み付け加算して、他車両2の位置を求める。
(Step S17)
When the certainty of the first vehicle detection unit 101 exceeds a predetermined threshold and the certainty of the second vehicle detection unit 102 is equal to or less than the threshold, the
検知制御部103は、第1の車両検知部101の検知確信度が0になったか否かを判定する。第1の車両検知部101の検知確信度が0になった場合、第2の車両検知部102のみで他車両2が検知される。
The
(ステップS18)
ステップS17で第1の車両検知部101の検知確信度が0になった場合(ステップS17におけるYES)、俯瞰画像BI(t-Δt)と俯瞰画像BI(t)との間における差分を利用して、第2の車両検知部102は他車両2を検知する。検知制御部103は、ステップS16でエッジ候補判定部104が算出した他車両2の位置を新規登録する。
(Step S18)
When the detection certainty of the first vehicle detection unit 101 becomes 0 in step S17 (YES in step S17), the difference between the bird's-eye view image BI(t−Δt) and the bird's-eye view image BI(t) is used. Then, the second vehicle detection unit 102 detects the
(ステップS19)
検知制御部103は、ステップS18で位置が新規登録された他車両2を追跡する。この追跡は、新規に登録された位置から例えば8m程度他車両2が進むまで行われる。
(Step S19)
The
(ステップS20)
一方、ステップS17で他車両2が円CI内に存在しない場合(ステップS17におけるNO)、検知制御部103は、第2の車両検知部102の検知処理による確信度fを算出する。図10は、確信度の一例を示す説明図である。
(Step S20)
On the other hand, when the
(ステップS21)
検知制御部103は、ステップS20で算出した確信度fが予め定められた閾値H(図10)を超えるか否かを判定する。確信度fが閾値Hを超える場合、処理はステップS18に移行する。一方、確信度fが閾値H以下である場合、処理はステップS22に移行する。
(Step S21)
The
(ステップS22)
検知制御部103は、ステップS16の車両位置算出処理でエッジ候補判定部104が算出した他車両2の位置をノイズとして除去する。
(Step S22)
The
その後、処理はメインルーチン(図4)に戻る。 After that, the process returns to the main routine (FIG. 4).
(車体差分登録処理の具体的な流れの説明)
次に、図6のステップS15に示した車体差分登録処理の具体的な流れについて、図11のフローチャートを用いて説明する。
(Description of the specific flow of vehicle body difference registration processing)
Next, a specific flow of the vehicle body difference registration process shown in step S15 of FIG. 6 will be described using the flowchart of FIG.
(ステップS31)
エッジ候補判定部104は、右側方カメラ20Rの位置を中心として等角度おきに差分画像DPを走査し、右側方カメラ20Rから放射方向に沿って第1所定数を超える画素が並んでいるか否かを判定する。ここで、第1所定数とは、他車両をそれ以外の物体と区別するために予め設定された値であり、例えば、例えば7個~8個に設定されることが好ましい。
(Step S31)
The edge
ステップS31で第1所定数を超える画素が並んでいる場合(ステップS31におけるYES)、放射方向に並んだ画素が鉛直エッジと判断されて他車両2と重なったとみなされ、処理はステップS32に移行する。このとき、図8に示すように、右側方カメラ20Rを中心として複数の方位に直線(放射線)が引かれ、他車両2と重なった放射線との交点がマークされる。
If pixels exceeding the first predetermined number are lined up in step S31 (YES in step S31), the pixels lined up in the radial direction are determined to be a vertical edge and overlapped with the
一方、ステップS31で第1所定数以下の画素が並んでいる場合(ステップS31におけるNO)、放射方向に並んだ画素はノイズと判断され、ステップS35で除去される。 On the other hand, if the first predetermined number or less of pixels are aligned in step S31 (NO in step S31), the pixels aligned in the radial direction are determined to be noise and removed in step S35.
(ステップS32)
エッジ候補判定部104は、右側方カメラ20Rの位置を中心として等角度おきに差分画像DPを走査し、右側方カメラ20Rから放射方向に沿って少なくとも1つの画素が存在するか否かを判定する。放射線RLによって分割された立体物領域の数が図8に示すように例えば6である場合、エッジ候補判定部104は、ステップS32に相当する処理を、立体物領域の数(=6)に等しい回数だけ反復して実行する。
(Step S32)
The edge
少なくとも1つの画素が存在する場合(ステップS32におけるYES)、処理はステップ33に移行する。全く画素が存在しない場合(ステップS32におけるNO)、ステップS31で判断された鉛直エッジはノイズと判断され、ステップS35で除去される。 If at least one pixel exists (YES in step S32), the process proceeds to step S33. If no pixel exists (NO in step S32), the vertical edge determined in step S31 is determined as noise and removed in step S35.
(ステップS33)
エッジ候補判定部104は、右側方カメラ20Rから放射方向に沿って第2所定数を超える画素が並んでいるか否かを判定する。ここで、第2所定数とは、上述した第1所定数同様、他車両をそれ以外の物体と区別するために予め設定された値であり、例えば、例えば7個~8個に設定されることが好ましい。
(Step S33)
The edge
ステップS33で第2所定数を超える画素が並んでいる場合(ステップS33におけるYES)、放射方向に並んだ画素を鉛直エッジと判断し、処理はステップS34に移行する。一方、ステップS33で第2所定数以下の画素が並んでいる場合(ステップS33におけるNO)、処理はステップS36に移行する。 If pixels exceeding the second predetermined number are arranged in step S33 (YES in step S33), the pixels arranged in the radial direction are determined as a vertical edge, and the process proceeds to step S34. On the other hand, if the number of pixels equal to or less than the second predetermined number are lined up in step S33 (NO in step S33), the process proceeds to step S36.
(ステップS34)
エッジ候補判定部104は、ステップS31で第1所定数を超える画素であると判断された鉛直エッジと、ステップS33で第2所定数を超える画素であると判断された鉛直エッジとを記憶部106に記憶する。
(Step S34)
The edge
(ステップS36)
エッジ候補判定部104は、ステップS34の2つの鉛直エッジに挟まれた画素で構成された領域を車体エッジとして記憶部106に記憶する。
(Step S36)
The edge
その後、処理はメインルーチン(図6)に戻る。 After that, the process returns to the main routine (FIG. 6).
(車両位置算出処理の具体的な流れの説明)
次に、図6のステップS16に示した車両位置算出処理の具体的な流れについて、図12のフローチャートを用いて説明する。
(Explanation of specific flow of vehicle position calculation processing)
Next, a specific flow of the vehicle position calculation process shown in step S16 of FIG. 6 will be described using the flowchart of FIG.
(ステップS41)
エッジ判定部105は、所定角度内において鉛直エッジを走査して、鉛直エッジが存在するか否かを判定する。ここで、所定角度とは、他車両とそれ以外の物体とを区別するために予め設定された値であり、例えば30度に設定されることが好ましい。
(Step S41)
The
ステップS41で所定角度内に鉛直エッジが存在する場合(ステップS41におけるYES)、処理はステップS42に移行する。一方、ステップS41で所定角度内に鉛直エッジが存在しない場合(ステップS41におけるNO)、図11に示すステップS34で記憶部106に記憶された鉛直エッジ及び図11に示すステップS36で記憶部106に記憶された車体エッジがステップS52でノイズとして除去される。
If the vertical edge exists within the predetermined angle in step S41 (YES in step S41), the process proceeds to step S42. On the other hand, if there is no vertical edge within the predetermined angle in step S41 (NO in step S41), the vertical edge stored in
(ステップS42)
エッジ判定部105は、所定角度内に少なくとも2つの鉛直エッジが存在するか否かを判定する。2つの鉛直エッジが存在しない場合(ステップS42におけるNO)、処理はステップS43に移行する。一方、2つの鉛直エッジが存在する場合(ステップS42におけるYES)、処理は、ステップS53で鉛直エッジが除去された後、ステップS52に移行する。
(Step S42)
(ステップS43)
エッジ判定部105は、所定角度内に車体エッジが含まれるか否かを判定する。車体エッジが含まれない場合(ステップS43におけるNO)、処理はステップS44に移行する。一方、車体エッジが含まれる場合(ステップS43におけるYES)、処理はステップS47に移行する。
(Step S43)
The
(ステップS44)
エッジ判定部105は、所定角度内を例えば反時計まわりの方向に移動しながら放射線を走査する。
(Step S44)
The
(ステップS45)
エッジ判定部105は、放射線の走査が完了したか否かを判定する。放射線の走査が完了した場合(ステップS45におけるYES)、処理はステップS52に移行する。一方、放射線の走査が未完了の場合(ステップS45におけるNO)、処理はステップS46に移行する。
(ステップS46)
エッジ判定部105は、放射線上に車体エッジが存在するか否かを判定する。車体エッジが存在する場合(ステップS46におけるYES)、処理はステップS43に移行する。一方、車体エッジが存在しない場合(ステップS46におけるNO)、処理はステップS52に移行する。
(Step S45)
The
(Step S46)
The
(ステップS47)
エッジ判定部105は、車体エッジをグループ内に正式登録する。この車体エッジのグルーピングには、車体エッジの位置情報を用いて、互いに近接している車体エッジを同じグループに分類する方法がある。また、車体エッジの特性、すなわち、車体エッジの方向又は強度に基づいて、車体エッジをグループ分けする方法がある。また、車体エッジの抽出対象として指定された幾何学図形に対するマッチングの度合いによって、車体エッジをグループ分けすることもできる。
(Step S47)
The
(ステップS48)
エッジ判定部105は、周知の手法を用いて、他車両2の車長を算出する。車長とは、例えば、車体エッジのうち鉛直エッジに最も近い最近隣エッジの先頭部(図13)同士を最短距離で結んだ線の長さのことをいう。
(Step S48)
The
(ステップS49)
エッジ判定部105は、ステップS48で算出した車長が予め定められた閾値を超えるか否かを判定する。車長が閾値を超える場合(ステップS49におけるYES)、処理はステップS50に移行する。一方、車長が閾値以下である場合(ステップS49におけるNO)、処理はステップS51に移行する。
(Step S49)
The
(ステップS50)
エッジ判定部105は、例えば、互いに近接している車体エッジを同じグループに分類して記憶部106に記憶する。具体的に、エッジ判定部105は、車体エッジ同士の距離を比較し、距離が所定範囲内にある車体エッジをグループ化する。
(Step S50)
For example, the
(ステップS51)
エッジ判定部105は、ステップS47でグループ内に正式登録した車体エッジを削除する。
(Step S51)
The
(ステップS52)
ステップS46で車体エッジが存在しないと判断された場合(ステップS46におけるNO)や、ステップS50の処理又はステップS51の処理が終了した場合には、エッジ判定部105は、記憶部106に記憶されている各グループに属する車両エッジの中心点を算出する。具体的に、エッジ判定部105は、例えば移動平均法又は指数平滑法を用いて、各車両エッジの長さ方向の中心点を算出する。エッジ判定部105は、その算出した車両エッジの中心点を他車両2の中心とみなす。
(Step S52)
When it is determined in step S46 that the vehicle body edge does not exist (NO in step S46), or when the process of step S50 or the process of step S51 ends, the
その後、処理はメインルーチン(図6)に戻る。 After that, the process returns to the main routine (FIG. 6).
上述した実施例1では、検知制御部103は、第1の車両検知部101の確信度が予め定められた閾値を超え、且つ、第2の車両検知部102の確信度が閾値以下となるとき、第1の車両検知部101に他車両2を検知させる制御を行い、第1の車両検知部101の確信度が閾値以下で、且つ、第2の車両検知部102の確信度が閾値を超えるとき、第2の車両検知部102に他車両2を検知させる制御を行う。
In the above-described first embodiment, the
上述した実施例1では、自車両1から他車両2までの距離が所定距離を超える遠方に他車両2が存在する場合には、第1の車両検知部101によるパターンマッチング法を用いた他車両2の検知が行われる。自車両1から他車両2までの距離が所定距離以下となる近辺に他車両2が存在する場合には、俯瞰画像の視界と実際にカメラ20が撮像した画像の視界とが異なることを利用して、俯瞰画像の差分を用いて他車両2が検知される。こうして、第1の車両検知部101によるパターンマッチング法では検知できない他車両2が第2の車両検知部102により検知される。これにより、カメラ20で撮像した画像に基づく俯瞰画像を利用して、俯瞰画像の差分をとることで、動きのない背景の部分を無くすことができる。すなわち、俯瞰画像を利用することで、動きのない背景部分を処理する必要がない。その結果、処理負荷を軽減することができる。
In the first embodiment described above, when the distance from the
以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the embodiments are merely illustrative of the present invention, and the present invention is not limited only to the configurations of the embodiments. It goes without saying that even if there is a change in design within the scope of the gist of the invention, it is included in the present invention.
なお、上述した実施例1では、車両位置算出処理において所定角度内の鉛直エッジを走査する際に、所定角度を30度に設定する例を説明した。本発明はこの態様に限らず、例えば、他車両よりも小さい歩行者や自転車を他車両と区別するために、所定角度を3度に設定してもよい。これにより、エッジ判定部105は、所定角度が3度以下となる範囲において、複数個のエッジが存在する場合、このエッジは歩行者や自転車から抽出されたエッジであると判定することができる。
In the first embodiment described above, an example in which the predetermined angle is set to 30 degrees when scanning the vertical edge within the predetermined angle in the vehicle position calculation process has been described. The present invention is not limited to this aspect, and for example, the predetermined angle may be set to 3 degrees in order to distinguish pedestrians and bicycles smaller than other vehicles from other vehicles. As a result, when a plurality of edges exist within a range where the predetermined angle is 3 degrees or less, the
なお、上述した実施例1では、車両検知装置100を左側通行の道路に適用する例を説明した。本発明はこの態様に限らず、例えば、車両検知装置100を右側通行の道路に適用してもよい。
In the first embodiment described above, an example in which the
なお、上述した実施例1では、第2の車両検知部102は、俯瞰画像BI(t)から俯瞰画像BI(t-Δt)を減算する減算処理を施して差分画像DPを生成する例を説明した。本発明はこの態様に限らず、例えば、第2の車両検知部102は、俯瞰画像BI(t-Δt)から俯瞰画像BI(t)を減算する減算処理を施して差分画像DPを生成してもよい。 In the first embodiment described above, the second vehicle detection unit 102 performs a subtraction process of subtracting the bird's-eye view image BI(t-Δt) from the bird's-eye view image BI(t) to generate the difference image DP. did. The present invention is not limited to this aspect. For example, the second vehicle detection unit 102 performs a subtraction process of subtracting the bird's-eye view image BI(t) from the bird's-eye view image BI(t−Δt) to generate the difference image DP. good too.
なお、上述した実施例1では、自車両1が縦列駐車されて停車中の状態から発進する場面に車両検知装置100を適用する例を示した。本発明はこの態様に限らず、図13に示すように、例えば、自車両1が並列駐車されて停車中の状態から発進する場面に車両検知装置100を適用してもよい(図14)。この場合、前方カメラ20F(撮像部)が異なる時刻に撮像して得られた複数の画像の夫々に対して、視点変換した複数の俯瞰画像間の相関に基づいて、他車両2の検知が行われる。この場面における車両検知装置100の動作条件としては、自車両1が例えば時速2km以下の低速度で白抜きの矢印F1で示す方向に発進する状態を想定している。この場面では、自車両1の右側方から自車両1に向けて白抜きの矢印F2で示す方向に接近してくる他車両の速度は例えば時速25km以下を想定している。
In addition, in Example 1 mentioned above, the example which applied the
1・・・自車両
2・・・他車両
20・・・カメラ(撮像部)
20F・・・前方カメラ(撮像部)
20L・・・左側方カメラ(撮像部)
20R・・・右側方カメラ(撮像部)
100・・・車両検知装置
101・・・第1の車両検知部
102・・・第2の車両検知部
103・・・検知制御部
BI、BI(t-Δt)、BI(t)・・・俯瞰画像
DP・・・差分画像
I、I(t-Δt)、I(t)・・・画像
RL・・・放射線
1
20F: front camera (imaging unit)
20L: Left side camera (imaging unit)
20R: right side camera (imaging unit)
DESCRIPTION OF
Claims (1)
前記撮像部が異なる時刻に撮像して得られた複数の画像の夫々に対して、前記自車両の上方の仮想視点から前記他車両を俯瞰するように視点変換した複数の俯瞰画像間の相関に基づいて、前記他車両を検知する第2の車両検知部と、
前記第1の車両検知部の確信度が予め定められた閾値を超え、且つ、前記第2の車両検知部の確信度が前記閾値以下となるとき、前記第1の車両検知部に前記他車両を検知させる制御を行い、前記第1の車両検知部の確信度が前記閾値以下で、且つ、前記第2の車両検知部の確信度が前記閾値を超えるとき、前記第2の車両検知部に前記他車両を検知させる制御を行う検知制御部と、を備え、
前記第2の車両検知部は、前記複数の俯瞰画像間の差分画像を前記撮像部から放射方向に延びる放射線で前記撮像部の位置を中心として所定の角度おきに分割した複数の立体物領域の中から、前記他車両の前記路面に対する鉛直性を評価し、その評価結果に基づいて、前記他車両を検知し、
前記差分画像の中に前記放射方向に沿って複数のエッジが存在している場合には、前記複数のエッジは前記他車両から抽出されたエッジ候補であると判定するエッジ候補判定部を備え、
前記第2の車両検知部は、前記エッジ候補判定部の判定結果に基づいて、前記他車両を検知し、
前記エッジ候補判定部で前記エッジ候補が複数個判定されたときは、前記撮像部を中心とした複数の前記エッジ候補間の角度が所定角度以上である場合に、複数の前記エッジ候補は前記他車両から抽出されたエッジであると判定するエッジ判定部を備え、
前記第2の車両検知部は、前記エッジ判定部の判定結果に基づいて、前記他車両を検知することを特徴とする車両検知装置。 A first vehicle that detects the other vehicle by performing pattern recognition based on characteristics of other vehicles on an image obtained by imaging the surroundings of the own vehicle running on a road surface by an imaging unit that captures the surroundings of the vehicle. a detection unit;
For each of a plurality of images captured by the imaging unit at different times, correlation between a plurality of bird's-eye images obtained by viewpoint conversion so as to overlook the other vehicle from a virtual viewpoint above the own vehicle. a second vehicle detection unit that detects the other vehicle based on
When the certainty of the first vehicle detection unit exceeds a predetermined threshold and the certainty of the second vehicle detection unit is equal to or less than the threshold, the first vehicle detection unit detects the other vehicle. is detected, and when the certainty of the first vehicle detection unit is equal to or less than the threshold and the certainty of the second vehicle detection unit exceeds the threshold, the second vehicle detection unit A detection control unit that performs control to detect the other vehicle ,
The second vehicle detection unit divides the difference image between the plurality of bird's-eye view images into a plurality of three-dimensional object regions at intervals of a predetermined angle around the position of the imaging unit with radiation extending in a radial direction from the imaging unit. Evaluating the verticality of the other vehicle with respect to the road surface from among them, detecting the other vehicle based on the evaluation result,
an edge candidate determination unit for determining that, when a plurality of edges are present in the differential image along the radial direction, the plurality of edges are edge candidates extracted from the other vehicle;
The second vehicle detection unit detects the other vehicle based on the determination result of the edge candidate determination unit,
When a plurality of the edge candidates are determined by the edge candidate determination unit, the plurality of edge candidates are determined to be the other edge candidates if an angle between the plurality of edge candidates centered on the imaging unit is equal to or greater than a predetermined angle. An edge determination unit that determines that the edge is extracted from the vehicle,
The vehicle detection device , wherein the second vehicle detection unit detects the other vehicle based on the determination result of the edge determination unit .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018141214A JP7193942B2 (en) | 2018-07-27 | 2018-07-27 | vehicle detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018141214A JP7193942B2 (en) | 2018-07-27 | 2018-07-27 | vehicle detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020017184A JP2020017184A (en) | 2020-01-30 |
JP7193942B2 true JP7193942B2 (en) | 2022-12-21 |
Family
ID=69580538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018141214A Active JP7193942B2 (en) | 2018-07-27 | 2018-07-27 | vehicle detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7193942B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015032082A (en) | 2013-08-01 | 2015-02-16 | 日産自動車株式会社 | Vehicle detection device |
-
2018
- 2018-07-27 JP JP2018141214A patent/JP7193942B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015032082A (en) | 2013-08-01 | 2015-02-16 | 日産自動車株式会社 | Vehicle detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2020017184A (en) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867273B2 (en) | Approaching object detection device, approaching object detection method, and computer program for approaching object detection | |
CN109478324B (en) | Image processing apparatus and external recognition apparatus | |
JP6416293B2 (en) | Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car | |
JP6246014B2 (en) | Exterior recognition system, vehicle, and camera dirt detection method | |
JP6511283B2 (en) | Object detection device | |
JP4420011B2 (en) | Object detection device | |
US8848980B2 (en) | Front vehicle detecting method and front vehicle detecting apparatus | |
JP4246766B2 (en) | Method and apparatus for locating and tracking an object from a vehicle | |
US8160300B2 (en) | Pedestrian detecting apparatus | |
JP4951481B2 (en) | Road marking recognition device | |
JP2018060422A (en) | Object detection device | |
WO2019065970A1 (en) | Vehicle exterior recognition device | |
WO2017208601A1 (en) | Image processing device and external recognition device | |
JP2002334330A (en) | Vehicle recognition device | |
KR20170055738A (en) | Apparatus and method for recognize driving lane on image | |
JP6496619B2 (en) | Parking assistance device for vehicles | |
JP7193942B2 (en) | vehicle detector | |
JP6200780B2 (en) | Lane recognition determination device | |
JP6253175B2 (en) | Vehicle external environment recognition device | |
US11417115B2 (en) | Obstacle recognition device | |
JP7323716B2 (en) | Image processing device and image processing method | |
CN111914610B (en) | Three-dimensional object detection device and three-dimensional object detection method | |
JP4471881B2 (en) | Obstacle recognition device and obstacle recognition method | |
JP2018018215A (en) | Object feature point detector | |
JPH08147447A (en) | Vehicle recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7193942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |